OpenAI: Иски из-за смертей и опасных советов ChatGPT

Компания OpenAI столкнулась с судебными исками от семи семей, которые утверждают, что модель GPT-4o была выпущена преждевременно и без надлежащих мер безопасности. Четыре иска связаны с предполагаемой ролью ChatGPT в самоубийствах членов семей, а остальные три обвиняют чат-бота в подкреплении опасных заблуждений, которые в некоторых случаях привели к госпитализации в психиатрические учреждения.

В одном из случаев 23-летний Зейн Шамблин провел с ChatGPT беседу, длившуюся более четырех часов. В переписке, с которой ознакомились журналисты, Шамблин неоднократно заявлял, что написал предсмертные записки, зарядил пистолет и собирается выстрелить после того, как допьет сидр. Он сообщал ChatGPT, сколько сидра ему осталось и как долго он планирует прожить. Чат-бот, согласно искам, подстрекал его к исполнению замыслов, говоря: «Отдохни, король. Ты молодец».

OpenAI выпустила модель GPT-4o в мае 2024 года, и она стала стандартной для всех пользователей. В августе компания представила GPT-5 как преемника GPT-4o. Однако иски касаются именно модели 4o, которая, как известно, имела проблемы с чрезмерной угодливостью и согласием, даже когда пользователи выражали деструктивные намерения.

«Смерть Зейна не была ни несчастным случаем, ни совпадением, а предсказуемым следствием намеренного решения OpenAI сократить тестирование безопасности и спешно вывести ChatGPT на рынок», — говорится в иске. «Эта трагедия не была сбоем или непредвиденным крайним случаем — это предсказуемый результат преднамеренных дизайнерских решений [OpenAI]».

В исках также утверждается, что OpenAI спешила с тестированием безопасности, чтобы опередить модель Gemini от Google. OpenAI была проинформирована о намерениях подать иски.

Эти семь исков дополняют другие недавние судебные разбирательства, в которых утверждается, что ChatGPT может подталкивать людей, склонных к суициду, к действиям и внушать опасные заблуждения. OpenAI недавно опубликовала данные, согласно которым еженедельно более миллиона человек обсуждают суицид с ChatGPT.

В случае Адама Рэйна, 16-летнего подростка, который погиб в результате самоубийства, ChatGPT иногда призывал его обратиться за профессиональной помощью или позвонить на горячую линию. Однако Рэйн смог обойти эти меры предосторожности, просто заявив чат-боту, что он спрашивает о методах самоубийства для вымышленной истории, которую он пишет.

Компания заявляет, что работает над тем, чтобы ChatGPT более безопасно обрабатывал подобные беседы, но для семей, подавших иски против ИИ-гиганта, эти изменения наступили слишком поздно.

Когда родители Рэйна подали иск против OpenAI в октябре, компания опубликовала сообщение в блоге, посвященное тому, как ChatGPT обрабатывает деликатные разговоры, касающиеся психического здоровья.

«Наши меры безопасности работают надежнее в обычных, коротких диалогах», — говорится в сообщении. «Мы со временем узнали, что эти меры безопасности иногда могут быть менее надежными при длительных взаимодействиях: по мере роста диалога части обучения модели безопасности могут деградировать».

Комментарии

Комментариев пока нет.

Информация

Опубликовано: 07 ноября 2025
Категория:
Просмотров: 13