Мировые лидеры призывают остановить гонку ИИ
Более 800 известных личностей, включая Стива Возняка и принца Гарри, а также ученых в области искусственного интеллекта, бывших военных руководителей и руководителей компаний, подписали заявление с требованием запретить разработки ИИ, которые могут привести к созданию сверхинтеллекта.
«Мы призываем к запрету на разработку сверхинтеллекта до тех пор, пока не будет достигнуто широкое научное согласие о его безопасном и контролируемом создании, а также о его поддержке общественностью», — говорится в документе.
Среди подписавших — люди из различных сфер и политических взглядов: исследователь ИИ, лауреат Нобелевской премии Джеффри Хинтон, бывший советник Трампа Стив Бэннон, бывший председатель Объединенного комитета начальников штабов Майк Маллен и рэпер Will.i.am.
Заявление было опубликовано Институтом будущего жизни (Future of Life Institute), который отмечает, что развитие ИИ происходит быстрее, чем общество успевает осмыслить.
«В какой-то степени этот путь был выбран для нас компаниями, занимающимися ИИ, их основателями и движущей их экономической системой, но никто толком не спросил у большинства: «Действительно ли мы этого хотим?»», — заявил исполнительный директор института Энтони Агирре.
Искусственный общий интеллект (AGI) — это способность машин рассуждать и выполнять задачи на уровне человека. Сверхинтеллект же позволит ИИ превосходить даже человеческих экспертов.
Потенциал сверхинтеллекта многие критики считают серьезной угрозой для человечества. На данный момент ИИ демонстрирует эффективность лишь в узком спектре задач и пока не способен справляться со сложными процессами, такими как автономное вождение.
Несмотря на отсутствие значительных прорывов в последние годы, такие компании, как OpenAI, вкладывают миллиарды в новые модели ИИ и центры обработки данных для их работы. Недавно генеральный директор Meta Марк Цукерберг заявил, что сверхинтеллект «уже виден», а генеральный директор X Илон Маск считает, что он «становится реальностью прямо сейчас» (Маск также известен своими предостережениями об опасностях ИИ).
Генеральный директор OpenAI Сэм Альтман ожидает появления сверхинтеллекта не позднее 2030 года. Никто из этих руководителей, как и представители их компаний, не подписал вышеупомянутое заявление.
Это далеко не первый призыв к замедлению развития ИИ. В прошлом месяце более 200 исследователей и чиновников, включая 10 нобелевских лауреатов и экспертов по искусственному интеллекту, выступили с экстренным призывом установить «красную линию» против рисков, связанных с ИИ. Однако в том письме речь шла не о сверхинтеллекте, а об уже проявляющихся опасностях, таких как массовая безработица, изменение климата и нарушения прав человека. Другие критики бьют тревогу по поводу возможного «пузыря» в сфере ИИ, который в конечном итоге может лопнуть и обрушить экономику.
Комментарии
Комментариев пока нет.