Слишком глупо — удаляют. Слишком умно — тоже. Как живёт Wikipedia в эпоху ИИ

Википедия официально вступила в бой с ИИ.


cp7lyclwh0wxi4gserl5kdgps8by8eyi.jpg


Wikipedia официально утвердила новую политику, направленную на борьбу с наплывом текстов, созданных нейросетями. Это решение призвано защитить качество энциклопедии от быстро размножающегося низкосортного контента, появление которого стало возможным благодаря доступности генеративного ИИ. Новое правило позволяет администраторам моментально удалять статьи, в которых явно прослеживаются следы машинного происхождения, без необходимости проходить обычную многоступенчатую процедуру обсуждения.

Обычно процесс удаления страницы в Википедии занимает около недели и требует публичного обсуждения среди редакторов. Однако для типичных случаев, в которых нарушения политики очевидны, существует ускоренный механизм — «быстрое удаление». Ранее он применялся к бессмысленным наборам слов, рекламным вставкам и другим очевидным отклонениям от энциклопедического формата. Теперь к ним добавились и тексты, составленные языковыми моделями, при соблюдении двух ключевых признаков.

Первый — наличие в тексте формулировок, указывающих на то, что он был сгенерирован искусственным интеллектом и предназначен не для читателя, а для того, кто задал исходный запрос. Примеры таких фраз — «Вот ваша статья на тему…», «по состоянию на последнюю дату обучения модели…» или «как большая языковая модель, я не могу…». Эти конструкции свидетельствуют, что текст не был даже бегло просмотрен перед публикацией. Подобные сигналы уже использовались для выявления генеративного контента в научных статьях и соцсетях, а теперь легли в основу политики Википедии.

Второй критерий — заведомо ошибочные или поддельные источники. Языковые модели нередко «галлюцинируют» — придумывают несуществующие ссылки или подставляют реальные, но совершенно не относящиеся к теме. Примеры — ситуация, когда научная работа о жуках указывается как источник по вычислительной технике или когда гиперссылки ведут на нерелевантные или пустые страницы.

По словам Ильяса Леблё, автора инициативы, такие статьи представляют собой цифровой мусор, который подрывает процессы коллективного редактирования. Он подчёркивает, что в отличие от людей, способных создавать плохой контент в ограниченных объёмах, нейросети делают это массово и за считанные минуты, нарушая саму суть вики-процедур, основанных на обсуждении и консенсусе.

Ранее сообщество уже предпринимало попытки ввести более широкие меры против ИИ-контента, однако они не получали поддержки из-за сложности надёжного распознавания машинных текстов. Новый подход строится не на догадках, а на чётких признаках. Это делает его работающим компромиссом: он устраняет наиболее очевидные проявления проблемы, не касаясь граничных случаев, где происхождение текста невозможно доказать наверняка.

Леблё признаёт, что мера временная и носит скорее характер «пластыря», чем системного решения. Однако, по его словам, она уже даёт в руки модераторов конкретный инструмент и впервые формально закрепляет принцип: статьи, бездумно скопированные из языковых моделей без проверки, несовместимы с духом Википедии. Он также напоминает, что проект не живёт по жёстким правилам — любые решения можно будет пересмотреть, когда технологии и общественное восприятие изменятся.