Сознательный ИИ: сможем ли мы поверить?
Сложность создания по-настоящему сознательного искусственного интеллекта (ИИ) может заключаться не столько в технических аспектах, сколько в нашей собственной психологии. Уже в 1980 году философ Джон Сёрл разделил ИИ на "слабый" (инструменты для решения задач) и "сильный" (обладающий подлинным разумом и сознанием).
Серл скептически относился к возможности появления "сильного" ИИ, однако сторонники функционализма, теории разума, согласно которой сознательные состояния определяются их функциями, считают создание такого ИИ лишь технической задачей. Если система будет функционировать аналогично человеку, она, по их мнению, будет и сознательной.
Современные генеративные ИИ, такие как ChatGPT, демонстрируют уровень развития, при котором их ответы зачастую неотличимы от человеческих. Это возвращает нас к знаменитому тесту Тьюринга, предложенному в 1950 году. Если машина может пройти этот тест, утверждал Тьюринг, её следует считать по-настоящему разумной.
Хотя в 1950 году это было лишь предположением, недавнее (пока не рецензированное) исследование показало, что ChatGPT успешно прошел тест Тьюринга, убедив 73% участников в своей человечности. Однако, что примечательно, эксперты не спешат признавать этот факт и отрицают сознательность ChatGPT, зачастую даже не воспринимая эту идею всерьез.
Ключевой вопрос заключается в том, что же на самом деле должна сделать машина, чтобы убедить нас в своей сознательности? Часто фокус смещается на технические критерии, необходимые для соответствия научным теориям сознания. Например, в статье 2023 года были перечислены 14 технических индикаторов сознания, среди которых было обучение на основе обратной связи, которое ChatGPT не продемонстрировал.
Однако создание "сильного" ИИ — это не только техническая, но и психологическая проблема. Одно дело — создать машину, соответствующую теоретическим критериям, и совсем другое — быть убежденным в её сознательности при встрече с ней. Успех ChatGPT уже выявил эту проблему: многие считали тест Тьюринга эталоном, но если он пройден, границы разумности продолжают смещаться по мере развития технологий.
Это вводит нас в сложную область философской проблемы "других умов": мы никогда не можем быть абсолютно уверены в сознательности кого-либо, кроме себя. В случае с машинами, мы склонны считать их лишь имитаторами, подобно скворцу, повторяющему слова без понимания их смысла. Это не означает, что сознательный ИИ невозможен, но признать его таковым может быть непросто. Возможно, мы уже создали его, но отказываемся верить.
Что же нужно машине, чтобы убедить нас? Одна из гипотез — демонстрация автономии, схожей с той, что мы наблюдаем у живых организмов. Современные ИИ, вроде ChatGPT, пассивны и активируются только при взаимодействии. Живые существа, которых мы считаем сознательными (приматы, дельфины, кошки, собаки), обладают собственными побуждениями, желаниями и инициируют действия по собственной воле.
Возможно, если бы мы смогли создать машину, проявляющую подобную автономию, выходящую за рамки простого подражания, мы бы наконец признали её сознательной. Это остается вопросом, на который, возможно, стоит спросить у самого ChatGPT.
Комментарии
Комментариев пока нет.