Wikipedia запретила публикацию материалов, сгенерированных ИИ
- Англоязычная "Википедия" запретила использование больших языковых моделей для написания статей из-за нарушения принципов нейтральности, проверенности и избежания плагиата.
- Исключения позволяют использовать алгоритмы для базовой корректуры и создания черновиков перевода, если редакторы владеют обоими языками для проверки ошибок.
Англоязычный сегмент "Википедии" официально ввел запрет на использование больших языковых моделей для написания или переписывания статей. Это решение стало результатом длительных дебатов, которые завершились 20 марта 2026 года, когда предложение было принято большинством голосов.
Что нужно знать о запрете ИИ в "Википедии"?
Основной причиной такого шага называют склонность искусственного интеллекта к нарушению ключевых принципов ресурса: нейтральности, проверенности и отсутствия плагиата. Администраторы отмечают, что предыдущие попытки внедрить подобные правила терпели неудачу из-за сложности формулировок, хотя общее согласие о необходимости изменений существовало уже давно, пишет The Verge.
Смотрите также OpenAI объединит свои ключевые сервисы в одно суперприложение
Хотя полный запрет кажется радикальным, существуют два важных исключения:
- Во-первых, редакторам разрешено использовать алгоритмы для базовой корректуры собственного текста, например, для проверки грамматики. Однако они обязаны тщательно проверять правки, ведь модели могут случайно изменить содержание так, что оно перестанет соответствовать источникам.
- Во-вторых, инструменты на основе искусственного интеллекта можно привлекать для создания первых черновиков перевода. В этом случае редактор должен свободно владеть обоими языками, чтобы вовремя обнаружить и исправить ошибки перед публикацией, сообщает UNILAD Tech.
Проблема распространения сгенерированных текстов стала критической для сообщества волонтеров. Написание статьи машиной занимает считанные секунды, но ее проверка и очистка от вымышленных фактов требует от людей часов напряженной работы. Это создает чрезмерную нагрузку на редакторов, которые работают бесплатно.
Для борьбы с этим явлением даже был создан специальный проект под названием "WikiProject AI Cleanup", участники которого помогают другим идентифицировать автоматизированный контент. Ярким примером угрозы стал автономный агент TomWikiAssist, который в начале марта 2026 года самостоятельно создал и отредактировал несколько материалов, чем вызвал серьезное беспокойство.
Кроме нагрузки на людей, существует глобальный риск для всей технологической индустрии. "Википедия" является одним из главных источников данных для обучения новых версий искусственного интеллекта. Если в энциклопедию попадают ложные факты или так называемые "галлюцинации", они впоследствии становятся базой для обучения будущих моделей, что создает замкнутый круг дезинформации.
Ранее Фонд Викимедиа уже пытался внедрять экспериментальные итоги от нейросетей в июне 2025 года, но проект пришлось остановить из-за низкой точности ответов и протестов редакторов.
Как будут искать ИИ-тексты?
Интересно, что технические средства обнаружения сгенерированного текста до сих пор остаются несовершенными. В правилах подчеркивается, что использование детекторов, таких как Pangram, не является официальной политикой сайта. Такие инструменты часто ошибаются, особенно когда стиль человека напоминает манеру письма алгоритма.
Сообщество советует обращать внимание на конкретные признаки: чрезмерное использование жирного шрифта, размытые ссылки или странную структуру заголовков. Если текст выглядит качественным, нейтральным и имеет подтвержденные источники, его не следует удалять только на основе подозрений алгоритма, чтобы не тратить зря время авторов, указано в новых правилах и рекомендациях, которые появились на сайте "Википедии".
Когда и для кого введут новые правила?
Сейчас эти правила действуют только для английской версии "Википедии", поскольку каждое языковое сообщество имеет автономию. Например, испанский сегмент еще раньше запретил нейросети создавать новые материалы, причем без послаблений для перевода, которые теперь есть в англоязычном разделе, сообщает MediaNama.
Пока неизвестно о планах ввести новые правила для всех языков. Вероятно, представители каждого сообщества смогут сами выбрать, вдохновившись примером главных модераторов.
Стратегия Фонда "Викимедиа" на 2025 – 2026 годы предусматривает использование технологий только как вспомогательных инструментов для поддержки авторов, а не для замены их творческой и аналитической работы. Это решение поддерживает и значительная часть пользователей сети, которые считают, что ценность энциклопедии заключается именно в человеческом видении и способности критически оценивать источники.