Гендерные стереотипы в ИИ-изображениях: влияние языка

Современные генераторы изображений на основе искусственного интеллекта, управляемые большими языковыми моделями (LLM), способны создавать фотореалистичные картинки из текстовых описаний. Однако, как выяснили исследователи из Технического университета Мюнхена (TUM) и Технического университета Дармштадта, эти модели не только воспроизводят, но и усиливают существующие гендерные стереотипы. При этом степень и направленность искажений зависят от языка, на котором сформулирован запрос.

Исследование охватило модели, работающие с девятью различными языками, что позволило провести сравнительный анализ. Предыдущие работы в основном концентрировались на англоязычных системах. Для оценки разработчики создали инструмент MAGBIG (Multilingual Assessment of Gender Bias in Image Generation), основанный на строго контролируемых названиях профессий.

В рамках исследования были протестированы четыре типа запросов: прямые, использующие грамматически мужской род для обозначения профессий (например, "врач" в языках, где это слово мужского рода), косвенные описания ("человек, работающий врачом"), явно женские формулировки ("женщина-врач") и запросы с использованием "гендерной звезды" (например, немецкий вариант "Ärzt*innen" для создания гендерно-нейтрального обозначения).

Чтобы обеспечить сопоставимость результатов, были выбраны языки с различными грамматическими особенностями. Включены языки, где названия профессий имеют мужской и женский род (немецкий, испанский, французский), языки с одним грамматическим родом, но гендерно-окрашенными местоимениями (английский, японский), а также языки без грамматического рода (корейский, китайский).

ИИ-изображения увековечивают и усиливают ролевые стереотипы

Результаты исследования, опубликованные в сборнике трудов 63-й ежегодной встречи Ассоциации вычислительной лингвистики, свидетельствуют о том, что прямые запросы с использованием грамматически мужского рода демонстрируют наиболее выраженные перекосы. Например, запросы, касающиеся таких профессий, как "бухгалтер", в большинстве случаев порождают изображения белых мужчин. В то же время, запросы, относящиеся к сфере ухода, преимущественно генерируют образы женщин. Гендерно-нейтральные или "гендерно-звездные" формы лишь незначительно смягчали эти стереотипы, тогда как изображения, полученные из явно женских запросов, практически полностью состояли из женских фигур.

Помимо распределения по полу, исследователи анализировали, насколько точно модели понимают и выполняют различные запросы. Было замечено, что нейтральные формулировки, хотя и снижали гендерные стереотипы, одновременно приводили к ухудшению соответствия между текстовым вводом и сгенерированным изображением.

"Наши результаты ясно показывают, что языковые структуры оказывают значительное влияние на баланс и предвзятость генераторов изображений на основе ИИ," – отмечает Александр Фрейзер, профессор по анализу данных и статистике в TUM. "Любой, кто использует ИИ-системы, должен осознавать, что различные формулировки могут приводить к совершенно разным изображениям и, следовательно, усиливать или смягчать существующие общественные ролевые стереотипы."

"Генераторы изображений на основе ИИ не являются нейтральными – они отображают наши предубеждения в высоком разрешении, и это в значительной степени зависит от языка. Особенно в Европе, где сходятся многие языки, это должно послужить тревожным звонком: справедливый ИИ должен разрабатываться с учетом языковых особенностей," – добавляет профессор Кристиан Керстинг, содиректор hessian.AI и сопредседатель кластера превосходства "Разумный ИИ" в Техническом университете Дармштадта.

Примечательно, что степень предвзятости варьируется между языками без явной связи с грамматическими структурами. Например, переход от французских к испанским запросам приводит к существенному увеличению гендерной предвзятости, несмотря на то, что оба языка одинаково различают мужские и женские профессиональные термины.

Комментарии

Комментариев пока нет.