Завтра, которого может не быть

3 самых больших угрозы существованию человечества
05.01.2021
Сэм Шид

По мнению соучредителя Skype Яана Таллинна (Jaan Tallinn), в нынешнем столетии наибольшую опасность для для нашего существования представляют искусственный интеллект, синтетическая биология и так называемые неизвестные неизвестные.

Из этих трех угроз Таллинн сосредоточен на искусственном интеллекте (ИИ), и он тратит миллионы долларов, пытаясь обеспечить безопасное развитие технологии. Это включает в себя ранние инвестиции в лаборатории искусственного интеллекта, такие как DeepMind (отчасти, чтобы он мог следить за тем, что они делают), и финансирование исследований безопасности ИИ в таких университетах, как Оксфорд и Кембридж.

Вероятность, что люди не выживут в этом веке, составляет один к шести, заявил Таллинн, сославшись на книгу оксфордского профессора Тоби Орда (Toby Ord). Согласно книге, одной из самых больших потенциальных угроз в ближайшем будущем является ИИ, а вероятность того, что изменение климата приведет к вымиранию человечества, оценивается менее 1%.

Предсказание будущего ИИ

Когда дело доходит до ИИ, никто не знает, насколько умными станут машины. Практически невозможно сейчас угадать, насколько продвинутым будет ИИ в следующие 10, 20 или 100 лет. Попытки предсказать будущее ИИ еще больше осложняются тем фактом, что системы ИИ начинают создавать другие системы ИИ без участия человека.

«Есть один очень важный параметр при попытке предсказать ИИ и будущее», - сказал Таллинн. «Насколько сильно и как именно развитие ИИ будет влиять на разработку ИИ? Мы знаем, что ИИ в настоящее время используется для поиска архитектур ИИ». Если выяснится, что ИИ не очень хорош для создания других ИИ, тогда нам не нужно слишком сильно беспокоиться, так как будет время для «рассредоточения и развертывания» возможностей ИИ, сказал Таллинн. Однако, если ИИ умеет создавать другие ИИ, то «очень оправданно беспокоиться... о том, что произойдет дальше», - сказал он.

Таллинн объяснил, что есть два основных сценария, которые рассматривают исследователи безопасности ИИ. Первый - это несчастный случай в лаборатории, когда исследовательская группа оставляет систему ИИ тренироваться на некоторых компьютерных серверах вечером, а «утром мира больше нет». Во втором случае исследовательская группа создает прототипную технологию, которая затем принимается и применяется в различных областях, «где она в конечном итоге приводит к нежелательным последствиям». Таллинн сказал, что он больше сосредоточен на первом варианте, поскольку о таком сценарии думают меньше людей.

На вопрос, беспокоится ли он меньше или больше чем раньше вопросами суперинтеллекта (гипотетическая точка, когда машины достигают интеллекта человеческого уровня, а затем быстро превосходят его), Таллинн ответил, что его точка зрения стала более «неопределенной» или «сложной».

«Если кто-то говорит, что это произойдет завтра или этого не произойдет в ближайшие 50 лет, я бы сказал, что оба они слишком самоуверенны», - сказал он.

Открытые и закрытые лаборатории

Крупнейшие мировые технологические компании выделяют миллиарды долларов на развитие ИИ. Хотя некоторые из их исследований публикуются открыто, большая часть - нет.

«Вопрос о прозрачности вовсе не очевиден», - говорит Таллинн, утверждая, что публиковать подробности об очень мощной технологии не всегда хорошая идея.

По словам Таллинна, не все компании относятся к безопасности искусственного интеллекта одинаково серьезно. DeepMind, например, поддерживает регулярные контакты с исследователями в области безопасности ИИ и имеет большой штат сотрудников, занимающихся безопасностью ИИ.

На другом конце шкалы, по словам Таллинна, такие корпоративные центры, как Google Brain и Facebook AI Research, которые менее вовлечены в сообщество по безопасности искусственного интеллекта.

«Если выяснится, что ИИ в ближайшее время не будет очень разрушительным, тогда, конечно, было бы полезно, если бы компании действительно пытались решать некоторые проблемы более распределенным образом», - сказал он.

Перевод: Максим Родионов

Источник: Энерговектор / CNBC

Читайте другие наши материалы