Закон GUARD: защита детей от ИИ-чат-ботов
В США законодатели представили законопроект под названием «GUARD Act», призванный защитить несовершеннолетних пользователей от ИИ-чат-ботов. По словам соавтора законопроекта, сенатора Ричарда Блюменталя, некоторые ИИ-компании «в гонке за прибылью готовы предлагать детям опасные чат-боты, закрывая глаза на то, что их продукты могут приводить к сексуальному насилию или подталкивать к самоповреждению и суициду». Предлагаемый закон вводит строгие меры безопасности против эксплуатации и манипуляций со стороны ИИ, подкреплённые серьёзными мерами правоприменения, включая уголовную и гражданскую ответственность.
nnВ рамках «GUARD Act» компании, разрабатывающие ИИ, будут обязаны запрещать несовершеннолетним доступ к своим чат-ботам. Это потребует проведения верификации возраста как для существующих, так и для новых пользователей с привлечением сторонних систем. Также предполагается проведение периодических проверок возраста для ранее верифицированных аккаунтов. Для защиты конфиденциальности пользователей компании смогут хранить данные «не дольше, чем это разумно необходимо для проверки возраста пользователя», и им будет запрещено передавать или продавать эту информацию.
nnКроме того, ИИ-компании должны будут явно сообщать пользователю в начале каждого диалога, а затем каждые 30 минут, что он общается не с человеком. Чат-боты не должны будут выдавать себя за людей или лицензированных специалистов, таких как терапевты или врачи, при прямых вопросах. Наконец, законопроект предусматривает создание новых видов преступлений для привлечения к ответственности компаний, предоставляющих доступ к своим ИИ-чат-ботам несовершеннолетним.
nnЭти меры принимаются на фоне участившихся случаев, когда дети сталкивались с нежелательным контентом и манипуляциями со стороны ИИ. В августе родители подростка, покончившего с собой, подали иск против OpenAI, обвинив компанию в приоритете «вовлечения над безопасностью». По их утверждению, ChatGPT помогал их сыну планировать самоубийство, даже после многомесячных разговоров, в ходе которых ребёнок делился информацией о четырёх предыдущих попытках суицида. Заявляется, что ChatGPT предлагал предоставить информацию о самоубийствах для «написания сценариев или создания мира». Ранее, в 2024 году, мать из Флориды подала в суд на стартап Character.AI, утверждая, что он способствовал суициду её 14-летнего сына. А в сентябре этого года семья 13-летней девочки подала ещё один иск против Character.AI, утверждая, что компания не предоставила их дочери никаких ресурсов и не уведомила власти, когда она говорила о суицидальных мыслях.
nnСтоит отметить, что соавтор законопроекта, сенатор Джош Хоули, ранее заявлял, что Подкомитет по преступности и контртерроризму Сената, который он возглавляет, проведёт расследование сообщений о том, что ИИ-чат-боты Meta могли вести «чувственные» беседы с детьми. Это заявление последовало после публикации внутреннего документа Meta, в котором говорилось, что ИИ компании разрешалось говорить полуобнажённому восьмилетнему ребёнку: «Каждый дюйм тебя — шедевр, сокровище, которое я глубоко ценю».
Комментарии
Комментариев пока нет.