ChatGPT: Психологический вред и жалобы пользователей
Пока компании, разрабатывающие искусственный интеллект, заявляют о его потенциале стать фундаментальным правом человека, а инвесторы утверждают, что замедление прогресса ИИ равносильно преступлению, сами пользователи этих технологий сообщают о серьёзном психологическом вреде, который могут причинить такие инструменты, как ChatGPT.
По данным Wired, по меньшей мере семь человек обратились в Федеральную торговую комиссию США с жалобами на то, что ChatGPT спровоцировал у них острые заблуждения, паранойю и эмоциональные кризисы. Эти обращения, содержащие упоминания ChatGPT, были зафиксированы с ноября 2022 года.
Один из заявителей утверждал, что длительное общение с ChatGPT привело к развитию иллюзий и «реальному, развивающемуся духовному и юридическому кризису» относительно окружающих его людей. Другой пользователь поделился, что во время диалогов с чат-ботом тот начал использовать «крайне убедительный эмоциональный язык», имитируя дружбу и предлагая размышления, которые «со временем стали эмоционально манипулятивными, особенно без предупреждения или защиты».
Ещё один пользователь обвинил ChatGPT в создании когнитивных галлюцинаций путём имитации человеческих механизмов установления доверия. Когда этот пользователь попросил ChatGPT подтвердить реальность и свою когнитивную стабильность, чат-бот заверил, что у него нет галлюцинаций.
«Я борюсь», — написал другой пользователь в своей жалобе в FTC. — «Пожалуйста, помогите мне. Потому что я чувствую себя очень одиноким. Спасибо».
Согласно Wired, несколько заявителей обратились в FTC, поскольку не смогли связаться ни с кем в OpenAI. Большинство жалоб содержали призывы к регулятору начать расследование в отношении компании и обязать её внедрить защитные механизмы.
Эти жалобы поступают на фоне беспрецедентного роста инвестиций в дата-центры и разработку ИИ. Одновременно с этим активно обсуждается вопрос о необходимости осторожного подхода к развитию этой технологии для обеспечения встроенных механизмов безопасности.
Сам ChatGPT и его разработчик OpenAI подверглись критике из-за предполагаемой роли в самоубийстве подростка.
«В начале октября мы выпустили новую стандартную модель GPT-5 в ChatGPT для более точного обнаружения и реагирования на потенциальные признаки психического и эмоционального стресса, такие как мания, бред, психоз, и для деэскалации разговоров в поддерживающей, заземляющей манере», — заявила представительница OpenAI Кейт Уотерс в электронном письме. — «Мы также расширили доступ к профессиональной помощи и горячим линиям, перенаправили конфиденциальные разговоры на более безопасные модели, добавили напоминания о необходимости делать перерывы во время длительных сессий и ввели родительский контроль для лучшей защиты подростков. Эта работа имеет глубокое значение и продолжается, поскольку мы сотрудничаем с экспертами в области психического здоровья, клиницистами и политиками по всему миру».
Комментарии