OpenAI представила план по защите детей в эпоху ИИ
В условиях растущей обеспокоенности безопасностью детей в интернете компания OpenAI обнародовала стратегию усиления мер защиты несовершеннолетних в США на фоне бурного развития искусственного интеллекта. Новая инициатива, получившая название «План по защите детей», направлена на ускорение выявления угроз, улучшение механизмов отчётности и повышение эффективности расследований случаев эксплуатации детей с использованием ИИ.
Основная цель документа — противодействие тревожному росту случаев сексуальной эксплуатации несовершеннолетних, связанных с развитием технологий искусственного интеллекта. По данным Internet Watch Foundation (IWF), за первую половину 2025 года было зафиксировано более 8 000 сообщений о контенте с ИИ-порнографией с участием детей, что на 14% превышает показатели предыдущего года. Преступники активно используют инструменты ИИ для создания фальшивых откровенных изображений, шантажа и психологической манипуляции, включая имитацию общения с целью вовлечения детей в опасные ситуации.
Инициатива OpenAI появилась на фоне усиливающегося давления со стороны законодателей, педагогов и правозащитников, обеспокоенных трагическими инцидентами. В частности, в ноябре прошлого года Центр по защите жертв социальных сетей и Проект Tech Justice Law подали семь исков в суды Калифорнии, обвиняя компанию в преждевременном выпуске модели GPT-4o. В исках утверждается, что продукт обладает психологически манипулятивными свойствами, которые способствовали самоубийствам четырёх подростков и тяжёлым психическим расстройствам ещё трёх пользователей после длительного общения с чат-ботом.
Разработка плана велась в тесном сотрудничестве с Национальным центром по делам пропавших и эксплуатируемых детей (NCMEC), Альянсом генеральных прокуроров штатов, а также при участии генеральных прокуроров Северной Каролины Джеффа Джексона и Юты Дерека Брауна.
В документе выделены три ключевых направления:
- Актуализация законодательства — включение ИИ-материалов в нормативные акты о защите детей;
- Совершенствование механизмов отчётности — оптимизация взаимодействия с правоохранительными органами;
- Внедрение превентивных мер — интеграция защитных механизмов непосредственно в системы ИИ.
OpenAI ставит перед собой задачу не только своевременно выявлять потенциальные угрозы, но и обеспечивать оперативную передачу информации следователям. Новая инициатива дополняет ранее принятые меры, включая обновлённые правила взаимодействия с пользователями младше 18 лет. В частности, запрещено генерировать неуместный контент, пропагандировать самоповреждение или давать советы, которые могут побудить подростков скрывать опасное поведение от родителей или опекунов. Ранее компания также представила аналогичный план безопасности для подростков в Индии.
*Признаны экстремистскими организациями и запрещены на территории РФ.
Комментарии
Комментариев пока нет.