Эксперты ИИ призывают остановить исследования супер-ИИ

Более трех десятилетий работы в сфере искусственного интеллекта, включая сотрудничество с пионерами, такими как Джон Маккарти, родоначальник термина "искусственный интеллект", позволяют мне наблюдать за стремительным развитием этой области. В последние годы научные прорывы привели к появлению инструментов ИИ, обещающих беспрецедентные достижения в медицине, науке, бизнесе и образовании.

В то же время ведущие компании в сфере ИИ ставят перед собой амбициозную цель: создание супер-ИИ – систем, которые значительно превосходят человека во всех когнитивных задачах. Это не просто громкие заявления; это стратегическая цель, подкрепленная миллиардными инвестициями, бизнес-стимулами, передовыми технологиями и усилиями лучших мировых исследователей. То, что когда-то казалось научной фантастикой, стало инженерной задачей ближайшего десятилетия. В ответ на это я и сотни других ученых, мировых лидеров и общественных деятелей подписали публичное заявление с призывом прекратить исследования в области супер-ИИ.

Суть заявления

Новое заявление, выпущенное некоммерческой организацией Future of Life Institute, не является призывом к временной паузе, как это было в 2023 году. Это короткий и однозначный призыв к глобальному запрету: "Мы призываем к запрету разработки супер-ИИ до тех пор, пока не будет достигнуто широкое научное согласие о его безопасном и контролируемом развитии, а также явная общественная поддержка".

Список подписавших представляет собой удивительно широкую коалицию, объединяющую людей, которых редко удается собрать вместе. Среди них – "крестные отцы" современного ИИ, такие как Йошуа Бенджио и Джефф Хинтон, а также ведущие исследователи безопасности, например, Стюарт Рассел из Калифорнийского университета в Беркли. Но обеспокоенность вышла за пределы академических кругов. Список включает технических и бизнес-лидеров, таких как соучредитель Apple Стив Возняк и Ричард Брэнсон из Virgin. Он также включает высокопоставленных политических и военных деятелей из обоих лагерей американской политики, таких как бывший советник по национальной безопасности Сьюзан Райс и бывший председатель Объединенного комитета начальников штабов Майк Маллен. Кроме того, в списке присутствуют известные медийные фигуры, такие как Гленн Бек и бывший стратег Трампа Стив Бэннон, а также артисты, как Will.I.am, и уважаемые историки, как Юваль Ной Харари.

Почему супер-ИИ представляет уникальную проблему

Человеческий интеллект кардинально изменил планету. Мы перенаправляли реки для производства электроэнергии и орошения земель, преобразуя целые экосистемы. Мы опутали мир финансовыми рынками, цепочками поставок, системами воздушного движения – грандиозными свершениями координации, зависящими от нашей способности рассуждать, прогнозировать, планировать, изобретать и создавать технологии. Супер-ИИ может продолжить эту траекторию, но с одним ключевым отличием: люди больше не будут контролировать процесс.

Опасность заключается не столько в машине, желающей нас уничтожить, сколько в той, которая преследует свои цели с сверхчеловеческой компетентностью и безразличием к нашим потребностям. Представьте себе супер-ИИ, которому поручено остановить изменение климата. Он может логически решить устранить вид, производящий парниковые газы. Поручите ему максимизировать человеческое счастье, и он может найти способ погрузить каждый человеческий мозг в вечный дофаминовый цикл. Или, по известному примеру шведского философа Ника Бострома, супер-ИИ, которому поручено произвести как можно больше канцелярских скрепок, может попытаться превратить всю материю Земли, включая нас, в сырье для своих заводов. Проблема не в злобе, а в несоответствии: система, которая слишком буквально понимает свои инструкции и обладает властью действовать хитро и быстро.

История показывает, что может пойти не так, когда наши системы растут за пределы нашей способности предсказывать, сдерживать или контролировать их. Финансовый кризис 2008 года начался с финансовых инструментов, настолько сложных, что даже их создатели не могли предвидеть их взаимодействие до полного краха системы. Тростниковые жабы, завезенные в Австралию для борьбы с вредителями, вместо этого опустошили местные виды. Пандемия COVID-19 показала, как глобальные сети путешествий могут превратить локальные вспышки в мировые кризисы. Теперь мы стоим на пороге создания чего-то гораздо более сложного: разума, который может переписывать собственный код, реорганизовываться, достигать своих целей и превосходить все человечество вместе взятое.

История неадекватного управления

Годами усилия по управлению ИИ были сосредоточены на таких рисках, как алгоритмическая предвзятость, конфиденциальность данных и влияние автоматизации на рабочие места. Это важные вопросы. Но они не решают системных рисков, связанных с созданием супер-интеллектуальных автономных агентов. Основное внимание уделялось приложениям, а не конечной заявленной цели компаний в сфере ИИ – созданию супер-ИИ. Новое заявление о супер-ИИ призвано начать глобальный диалог не только о конкретных инструментах ИИ, но и о том направлении, к которому разработчики ИИ ведут нас.

Цель ИИ должна заключаться в создании мощных инструментов на службе человечества. Это не означает создание автономных супер-интеллектуальных агентов, действующих вне человеческого контроля и без учета благополучия людей. Мы можем иметь будущее, полное прорывных медицинских открытий, научных открытий и персонализированного образования, основанных на ИИ. Ни одно из этих достижений не требует создания неконтролируемого супер-ИИ, который мог бы единолично решать судьбу человечества.

Комментарии

Комментариев пока нет.