Википедия запрещает использование ИИ‑текста в статьях редакторами

Интенсивное проникновение искусственного интеллекта в сферу редакции и медиа заставило многие онлайн‑платформы срочно формировать правила его применения. На этой неделе Википедия объявила о запрете использования текста, созданного ИИ, в материалах, редактируемых добровольцами, хотя полностью исключать ИИ из редакционных процессов пока не планируется.

В рамках обновлённой политики прямо указано, что применение больших языковых моделей (LLM) для генерации или переписания содержания статей запрещено. Это формулировка уточняет более раннюю рекомендацию, согласно которой такие модели не следует использовать для создания статей с нуля.

Сообщество редакторов Википедии, насчитывающее тысячи добровольцев, активно обсуждало нововведение. По данным 404 Media, предложение получило majority поддержки – 40 голосов за и 2 против. Несмотря на запрет, редакция оставляет лазейку для ограниченного использования ИИ.

По новой норме участники могут применять LLM для предложения базовых правок собственного текста, а после проверки человеком включать их, если модель не добавляет собственного контента. Однако предупреждается, что модели могут выходить за рамки запроса, изменяя смысл и делая текст неподтверждённым источниками.

Комментарии

Комментариев пока нет.