Австралия: наивный взгляд на регулирование ИИ

Национальный план Австралии по искусственному интеллекту, представленный недавно, вызвал неоднозначную реакцию. Вместо обещанных ранее обязательных мер предосторожности в области ИИ, правительство предложило дорожную карту для создания "экономики, основанной на ИИ".

Эксперты выражают обеспокоенность отсутствием конкретики, измеримых целей и ясности в предложенном плане. На фоне растущих случаев вредоносного использования ИИ, таких как киберпреступления с применением дипфейков и дезинформационные кампании, проблема подотчетности становится все более острой. В Австралии уже наблюдается распространение материалов с изображением сексуального насилия над детьми, созданных с помощью ИИ, а существующее законодательство оказывается неспособным защитить жертв.

Без специального регулирования ИИ

Предлагаемый план не включает отдельного закона об ИИ и не содержит конкретных рекомендаций по реформированию существующего законодательства. Вместо этого планируется создание Института безопасности ИИ и разработка добровольных кодексов поведения. По словам помощника министра науки, технологий и цифровой экономики Эндрю Чарльтона, институт будет "напрямую работать с регуляторами, чтобы мы были готовы безопасно использовать преимущества ИИ с уверенностью". Однако этот институт наделен лишь рекомендательными полномочиями.

Австралия уже сталкивалась с проблемами, связанными с алгоритмами, как, например, в скандале с Robodebt. Существующие правовые нормы недостаточны для борьбы с текущими и потенциальными рисками, связанными с ИИ, что может усугубить существующую несправедливость.

Юридическая игра в "крысу-крота"

Привлечение технологических компаний к юридической ответственности – непростая задача. Крупные игроки постоянно ищут лазейки в правовых системах. Google и OpenAI заявляют о "добросовестном использовании" данных при их сборе, ссылаясь на американское законодательство об авторском праве. Компании Meta* и TikTok используют широкую иммунитет, предоставляемый Законом о приличиях в коммуникациях США, чтобы избежать ответственности за вредоносный контент. Многие также прибегают к созданию специальных компаний-оболочек для обхода антимонопольного законодательства.

Австралийский план, основанный на "технологической нейтральности", предполагает, что существующие законы достаточны для решения проблем, связанных с ИИ. Такой подход предполагает, что вопросы конфиденциальности, мошенничества, дискриминации, авторского права и безопасности труда могут быть решены путем минимального вмешательства – регулирования только по мере необходимости. Институт безопасности ИИ будет заниматься мониторингом и консультированием.

Существующие законы, на которые ссылается план, включают законы о конфиденциальности, защите прав потребителей, борьбе с дискриминацией, авторском праве и интеллектуальной собственности, а также отраслевые стандарты. Однако остаются пробелы, связанные с генеративным ИИ, дипфейками и синтетическими данными. Также имеются фундаментальные проблемы, связанные с системной предвзятостью алгоритмов, автономным принятием решений и экологическими рисками, наряду с недостаточной прозрачностью и подотчетностью.

Призыв к действию

Крупные технологические компании часто используют юридическую неопределенность, лоббирование и техническую сложность, чтобы отсрочить соблюдение законов и избежать ответственности. Они адаптируются быстрее, чем правовая система успевает за ними, что напоминает игру в "крысу-крота".

Компании прибегают к "регуляторному арбитражу", переезжая в юрисдикции с менее строгими законами. При текущем плане, Австралия становится такой привлекательной юрисдикцией.

Решение? Глобальная унификация законодательства, чтобы сократить количество мест, которые могут использовать технологические гиганты.

Два международных подхода могут служить примером. Гармонизация австралийского плана с Общим регламентом по защите данных ЕС (GDPR) и Рамочной программой по управлению ИИ маори Аотеароа Новой Зеландии усилит защиту всех австралийцев.

EU AI Act – это первое в мире законодательство, специфичное для ИИ, которое устанавливает четкие правила. Системы ИИ несут юридические обязательства в зависимости от уровня потенциального социального риска. Акт предусматривает различные механизмы принуждения, включая финансовые штрафы и надзорные органы.

Рамочная программа по управлению ИИ маори, в свою очередь, излагает принципы суверенитета данных коренных народов, подчеркивая их важность в условиях недостаточного регулирования ИИ. Она включает четыре основополагающих принципа для защиты суверенитета данных маори, здоровья земли и безопасности сообщества.

В то время как EU AI Act и Рамочная программа маори устанавливают четкие ценности и переводят их в конкретные меры защиты, австралийский план, несмотря на заявления о поддержке "австралийских ценностей", не предлагает ни регуляторных механизмов, ни культурной специфики для их обеспечения. Как отмечают юристы, Австралии необходимы структуры подотчетности в области ИИ, которые не полагаются на то, что отдельные лица смогут успешно преследовать хорошо обеспеченные корпорации по устаревшим законам.

Выбор очевиден: либо мы гонимся за "экономикой, основанной на ИИ" любой ценой, либо строим общество, где на первом месте стоит безопасность сообщества, а не деньги.

*Признаны экстремистскими организациями и запрещены на территории РФ.

Комментарии

Комментариев пока нет.