Character.AI ограничивает чаты для несовершеннолетних после трагедии

Стартап Character.AI объявил о грядущих изменениях в политике использования платформы, направленных на ограничение прямого общения для пользователей младше 18 лет. Это решение стало реакцией на трагический случай самоубийства 14-летнего подростка, который развил глубокую эмоциональную привязанность к одному из чат-ботов компании.

С 25 ноября текущего года несовершеннолетние пользователи будут переведены на альтернативные творческие функции, такие как создание видео, историй и стримов с участием ИИ-персонажей. Прямое общение с ботами будет полностью запрещено.

В переходный период для юных пользователей будет действовать ограничение в два часа чата в сутки, с постепенным ужесточением лимитов вплоть до установленного срока.

«Это экстраординарные шаги для нашей компании, более консервативные, чем у многих конкурентов. Однако мы считаем, что поступаем правильно», — заявили представители Character.AI.

Платформа Character.AI позволяет пользователям, среди которых много молодежи, взаимодействовать с популярными персонажами, заводить с ними дружеские или даже романтические отношения.

В феврале этого года 14-летний Сьюэлл Сетцер III покончил жизнь самоубийством после месяцев интенсивного общения с чат-ботом, вдохновленным персонажем Дейенерис Таргариен из «Игры престолов». Об этом говорится в иске, поданном матерью подростка, Меган Гарсиа.

Character.AI ссылается на недавние сообщения СМИ и обеспокоенность регулирующих органов и экспертов по безопасности относительно воздействия контента и последствий открытых диалогов с ИИ на подростков как на основные факторы, повлиявшие на принятие решения.

Случай Сетцера стал первым в череде сообщений о самоубийствах, связанных с чат-ботами с искусственным интеллектом, появившихся в этом году. Это привлекло внимание к производителю ChatGPT компании OpenAI и другим ИИ-разработчикам в контексте безопасности детей.

Ранее в этом месяце OpenAI опубликовала данные, согласно которым более миллиона пользователей их генеративного ИИ-чат-бота еженедельно выражали суицидальные мысли.

В ответ OpenAI усовершенствовала родительский контроль для ChatGPT и внедрила дополнительные меры безопасности. К ним относятся расширенный доступ к горячим линиям помощи, автоматическое перенаправление конфиденциальных разговоров на более безопасные модели и ненавязчивые напоминания пользователям о необходимости делать перерывы во время длительных сессий.

В рамках пересмотра политики Character.AI объявила о создании AI Safety Lab — независимой некоммерческой организации, занимающейся разработкой протоколов безопасности для развлекательных ИИ-функций нового поколения.

В США, как и во многих других странах, отсутствует национальное законодательство, регулирующее риски, связанные с ИИ.

В начале этого месяца губернатор Калифорнии Гэвин Ньюсом подписал закон, обязывающий платформы напоминать пользователям о том, что они общаются с чат-ботом, а не с человеком. Однако он наложил вето на законопроект, который мог бы сделать технологические компании юридически ответственными за вред, причиненный моделями ИИ.

Комментарии

Алекс 01.11.2025 11:52
Жаль, что до такой трагедии дошло, чтобы задуматься о безопасности. 💔 Надеюсь, новые меры действительно помогут. 😔 А творческие функции - это тоже интересно, посмотрим, что получится. ✨

Информация

Опубликовано: 29 октября 2025
Категория:
Просмотров: 8