Grokipedia против Википедии: Битва ИИ за истину

Илон Маск и его компания xAI готовятся к запуску Grokipedia – нового проекта, который призван составить конкуренцию Википедии. Ранняя бета-версия появится в скором времени.

Маск представил Grokipedia как ответ на, по его мнению, «политическую и идеологическую предвзятость» Википедии. Он обещает, что новый ресурс предоставит более точную и контекстуально богатую информацию, используя чат-бота Grok от xAI для генерации и проверки контента.

Прав ли Маск? Вопрос о предвзятости Википедии обсуждается с момента ее основания в 2001 году. Контент Википедии создается и поддерживается волонтерами. Они могут ссылаться только на уже существующие опубликованные источники, поскольку платформа запрещает оригинальные исследования. Это правило, призванное обеспечить проверяемость фактов, означает, что охват Википедии неизбежно отражает предвзятости СМИ, академических кругов и других институтов, которые она использует.

Дело не только в политической предвзятости. Исследования неоднократно показывали значительный гендерный дисбаланс среди редакторов: около 80-90% пользователей англоязычной версии идентифицируют себя как мужчины. Поскольку большинство вторичных источников, используемых редакторами, также исторически созданы мужчинами, Википедия склоняется к отражению более узкого взгляда на мир – это скорее хранилище мужских знаний, чем сбалансированная летопись всего человеческого опыта.

Проблема добровольцев

Предвзятость на платформах с коллективным участием часто возникает не из-за политики сверху, а из-за того, кто участвует. Добровольное участие порождает то, что социальные ученые называют «смещением самоотбора»: люди, выбирающие для себя участие, как правило, разделяют схожие мотивы, ценности и, зачастую, политические взгляды.

Точно так же, как Википедия зависит от такого добровольного участия, работает и функция проверки фактов на платформе Маска X (ранее Twitter) – Community Notes. Анализ Community Notes, проведенный мной с коллегами, показал, что наиболее часто цитируемым внешним источником (после самого X) является Википедия. Другие источники, используемые авторами заметок, в основном тяготеют к центристским или леволиберальным изданиям. Они даже используют тот же список одобренных источников, что и Википедия – корень критики Маска в адрес открытой онлайн-энциклопедии. Однако никто не обвиняет Маска в предвзятости.

Википедия, по крайней мере, остается одной из немногих крупномасштабных платформ, которая открыто признает и документирует свои ограничения. Нейтральность закреплена как один из ее пяти основополагающих принципов. Предвзятость существует, но также существует инфраструктура, призванная сделать эту предвзятость видимой и исправимой. Статьи часто включают несколько точек зрения, документируют споры и даже посвящают разделы конспирологическим теориям. Разногласия видны через историю правок и страницы обсуждений, а спорные утверждения помечаются предупреждениями. Платформа несовершенна, но самокорректирующаяся, построенная на плюрализме и открытых дебатах.

Беспристрастен ли ИИ?

Если Википедия отражает предвзятости своих редакторов-людей и их источников, то у ИИ та же проблема с предвзятостью данных, на которых он обучается. Большие языковые модели (LLM), подобные тем, что использует Grok от xAI, обучаются на огромных массивах данных, собранных из интернета, включая социальные сети, книги, новостные статьи и саму Википедию. Исследования показывают, что LLM воспроизводят существующие гендерные, политические и расовые предубеждения, присутствующие в их обучающих данных.

Маск утверждает, что Grok разработан для противодействия таким искажениям, но сам Grok уже обвинялся в предвзятости. Одно исследование, в котором четыре ведущих LLM задали по 2500 вопросов о политике, показало, что Grok является более политически нейтральным, чем его конкуренты, но все же имеет небольшой левоцентристский уклон (остальные склоняются еще дальше влево). Если модель, лежащая в основе Grokipedia, полагается на те же данные и алгоритмы, трудно понять, как ИИ-энциклопедия сможет избежать воспроизведения тех самых предубеждений, которые Маск приписывает Википедии.

Более того, LLM могут усугубить проблему. Они работают вероятностно, предсказывая следующее слово или фразу на основе статистических закономерностей, а не путем человеческих обсуждений. Результатом является то, что исследователи называют «иллюзией консенсуса»: авторитетно звучащий ответ, скрывающий неопределенность или разнообразие мнений.

В результате LLM склонны гомогенизировать политическое разнообразие и отдавать предпочтение большинству мнений перед меньшинством. Такие системы рискуют превратить коллективные знания в гладкий, но поверхностный нарратив. Когда предвзятость скрывается под отполированным текстом, читатели могут даже не осознавать существование альтернативных точек зрения.

«Гадкая вода»

При всем этом ИИ все же может усилить проект, подобный Википедии. Инструменты ИИ уже помогают платформе обнаруживать вандализм, предлагать цитаты и выявлять несоответствия в статьях. Недавние исследования подчеркивают, как автоматизация может повысить точность при прозрачном использовании и под наблюдением человека.

ИИ также может помочь передавать знания между различными языковыми версиями и сблизить сообщество редакторов. При правильной реализации он может сделать Википедию более инклюзивной, эффективной и отзывчивой, не компрометируя ее человекоцентричную суть.

Подобно тому, как Википедия может учиться у ИИ, платформа X могла бы извлечь уроки из модели построения консенсуса Википедии. Community Notes позволяет пользователям предлагать и оценивать заметки к публикациям, но ее дизайн ограничивает прямое обсуждение между участниками. Другой исследовательский проект, в котором я участвовал, показал, что системы, основанные на обсуждениях и вдохновленные страницами обсуждений Википедии, повышают точность и доверие среди участников, даже если обсуждение происходит между людьми и ИИ. Поощрение диалога вместо простого голосования «за» или «против» могло бы сделать Community Notes более прозрачными, плюралистичными и устойчивыми к политической поляризации.

Прибыль и мотивация

Более глубокое различие между Википедией и Grokipedia заключается в их целях и, возможно, бизнес-моделях. Википедия управляется некоммерческой организацией Wikimedia Foundation, и большинство ее волонтеров мотивированы в первую очередь общественным интересом. В отличие от этого, xAI, X и Grokipedia – это коммерческие проекты.

Хотя мотивы получения прибыли не являются неэтичными по своей сути, они могут искажать стимулы. Когда X начал продавать свои синие галочки верификации, кредитоспособность стала товаром, а не маркером доверия. Если знания будут монетизироваться аналогичным образом, предвзятость может возрасти, формируясь под влиянием того, что генерирует вовлеченность и доход.

Истинный прогресс заключается не в отказе от человеческого сотрудничества, а в его улучшении. Те, кто видит предвзятость в Википедии, включая самого Маска, могли бы внести больший вклад, поощряя редакторов из разных политических, культурных и демографических групп к участию – или присоединившись к усилиям лично для улучшения существующих статей. В эпоху, все более формируемую дезинформацией, прозрачность, разнообразие и открытые дебаты остаются нашими лучшими инструментами для приближения к истине.

Комментарии

Комментариев пока нет.