Википедия отменяет интеграцию искусственного интеллекта после протеста редакторов
- Википедия приостановила тестирование функции резюмирования статей с помощью искусственного интеллекта из-за критики редакторского сообщества.
- Редакторы выразили обеспокоенность по поводу неуместности и опасности технологии, а также низкого качества резюме, содержащих ошибки.
- Фонд Викимедиа не исключает возможности возвращения к идее использования ИИ в будущем, обещая прозрачность и вовлечение сообщества в обсуждение.

Пилотная функция Википедии, которая должна была делать итоги и резюмирование материалов на сайте с помощью искусственного интеллекта, вызвала резкую критику со стороны редакторского сообщества. Это заставило платформу приостановить эксперимент.
Искусственный интеллект так и не добрался до Википедии
В начале месяца Википедия начала тестирование функции, которая позволяла пользователям видеть резюме к статьям, сгенерированные искусственным интеллектом. Эти аннотации появлялись в верхней части отдельных страниц для около 10% мобильных пользователей и имели отметку "не проверено", что требовала дополнительного клика для просмотра, сообщает 24 Канал со ссылкой на 404 Media.
Смотрите также Threads наконец запускает самую желанную функцию всех пользователей
Пилотная инициатива действовала только для ограниченного количества статей и длилась всего две недели. Чтобы увидеть аннотации, пользователи должны были зарегистрироваться через расширение для браузера или мобильное приложение. Однако очень быстро после запуска, учитывая шквал негативной реакции, Фонд Викимедиа (WMF) вынужден был временно свернуть тестирование.
Редакторы назвали внедрение неуместным, а иногда и опасным для репутации Википедии как надежного источника информации. Среди комментариев, предоставленных во внутренних обсуждениях, были реакции от "Фу" до "Улыбаюсь от ужаса". Один из редакторов предостерег, что ИИ-резюме могут нанести "немедленный и необратимый вред" читателям и имиджу ресурса.
Главным камнем преткновения стало отсутствие полноценного обсуждения с редакторским сообществом. Один из редакторов подчеркнул, что утверждение о том, что такие обновления обсуждались с сообществом, является манипулятивным, ведь оно фактически сводилось к участию только одного работника WMF. По мнению многих волонтеров, введение подобной функции без широкого привлечения сообщества противоречит принципам, на которых базируется сама Википедия.
Еще одна существенная проблема – низкое качество резюме, созданных ИИ, которые часто содержали ошибки из-за так называемых "галлюцинаций" моделей. Похожие инструменты уже становились источником дезинформации на других платформах, в частности в экспериментах Bloomberg, которые были вынуждены вносить исправления или вообще прекратить использование ИИ.
Несмотря на критику, Фонд Викимедиа признает, что подобные функции могут иметь смысл в определенных контекстах, в частности для расширения доступности. Представители организации отметили, что часть аудитории требует упрощенного изложения содержания перед переходом к полному тексту, особенно если речь идет о читателях, которые не являются носителями английского языка.
Планы на будущее
Платформа не исключает возможности возвращения к идее использования генеративного ИИ в будущем, но в другом формате. Представители WMF пообещали, что в дальнейшем подобные инициативы будут обсуждаться с редакторами открыто, чтобы избежать подобных конфликтов. По их словам, ИИ может быть полезным инструментом, но его внедрение требует осторожности, прозрачности и привлечения всех заинтересованных сторон.