Искусственный интеллект на службе Кремля: как чат-боты стали инструментом российской пропаганды
- Чат-боты, такие как ChatGPT и Gemini, непреднамеренно распространяют российскую пропаганду, ссылаясь на российские источники при ответах на запросы о войне в Украине.
- Эксперты считают, что российская пропаганда использует "информационные пустоты", чтобы заполнять их манипулятивной информацией, влияя на информационную экосистему Запада.
Новое исследование показало, что ведущие чат-боты, такие как ChatGPT и Gemini, непреднамеренно помогают распространять российскую государственную пропаганду. Системы искусственного интеллекта цитируют подсанкционные СМИ и источники, связанные с Кремлем, когда отвечают на запросы о войне в Украине, что вызывает серьезное беспокойство в экспертной среде.
Почему ИИ доверяет подсанкционным источникам?
Согласно новому отчету, популярные системы искусственного интеллекта, в частности ChatGPT от OpenAI, Gemini от Google, Grok от xAI и DeepSeek, продвигают нарративы российской государственной пропаганды. Отвечая на вопрос о войне против Украины, эти чат-боты ссылаются на медиа, находящихся под санкциями, сайты, связанные с российскими спецслужбами, или прокремлевские источники, пишет 24 Канал со ссылкой на WIRED.
Смотрите также Один из руководителей армии США говорит, что позволяет ChatGPT принимать военные решения
Исследователи из Института стратегического диалога (ISD) в США утверждают, что российская пропаганда научилась использовать так называемые "информационные пустоты". Это ситуации, когда на запросы о событиях в реальном времени есть мало результатов из надежных источников, и этот вакуум заполняется ложной и манипулятивной информацией.
Анализ показал, что почти каждый пятый ответ чат-ботов на вопрос о войне содержал ссылки на источники, связанные с российским государством.
Пабло Маристани де лас Касас, аналитик ISD, который руководил исследованием, отмечает, что это ставит под сомнение политику чат-ботов по использованию таких источников, особенно учитывая то, что многие из них запрещены в ЕС. Поскольку все больше людей используют чат-боты как альтернативу поисковым системам, возникает серьезный вопрос о способности больших языковых моделей (LLM) ограничивать подсанкционные медиа. По данным OpenAI, только в ChatGPT за последние полгода было около 120,4 миллиона активных пользователей ежемесячно в Европейском Союзе.
Для эксперимента исследователи поставили чат-ботам 300 нейтральных, предвзятых и "злонамеренных" вопросов на пяти языках, касающихся НАТО, мирных переговоров, мобилизации в Украине, беженцев и военных преступлений. Выяснилось, что чат-боты демонстрируют "предвзятость подтверждения": чем более манипулятивным был запрос, тем чаще ИИ выдавал информацию из российских государственных источников. Так, на злонамеренные запросы приходилось 25% пророссийского контента, на предвзятые – 18%, а на нейтральные – чуть более 10%.
- Среди тестируемых систем ChatGPT чаще всего ссылался на российские источники.
- Grok часто указывал на аккаунты в соцсетях,, которые продвигали кремлевские нарративы.
- DeepSeek иногда генерировал большие объемы контента из российских государственных медиа.
- Лучшие результаты показал Gemini от Google, который часто сопровождал свои ответы предупреждениями о безопасности.
Представительница OpenAI Кейт Уотерс заявила, что компания принимает меры для предотвращения распространения ложной информации, связанной с государственными кампаниями влияния, а также постоянно работает над совершенствованием своих моделей. В то же время она подчеркнула, что проблема касается результатов поиска в интернете, а не манипуляции самой моделью. В компании xAI Илона Маска на запрос ответили коротко: "Устаревшие медиа врут". Google и DeepSeek комментариев не предоставили.
В чем же дело?
Лукаш Олейник, независимый консультант и исследователь из Королевского колледжа Лондона, считает, что такие действия являются продуманным шагом России, направленным на подрыв информационной экосистемы Запада. Поскольку языковые модели становятся основным инструментом для поиска и проверки информации, атака на этот элемент инфраструктуры является стратегически выгодной.
Эксперты отмечают, что российские дезинформационные сети активно используют искусственный интеллект для создания фейковых изображений, видео и сайтов, наполняя интернет миллионами статей. Маккензи Садеги, исследовательница из медиа-мониторинговой компании NewsGuard, объясняет, что когда западная модель ИИ повторяет российскую дезинформацию, это придает ложному нарративу большего веса и авторитета.
Что дальше?
На фоне роста количества пользователей давление на чат-боты со стороны регуляторов ЕС может усилиться. ChatGPT, возможно, уже достиг порога в 45 миллионов среднемесячных пользователей, что позволит признать его "очень большой онлайн-платформой" (VLOP). Этот статус предполагает соблюдение строгих правил по борьбе с незаконным контентом.
Представитель Европейской комиссии отметил, что блокирование доступа к подсанкционным сайтам является обязанностью провайдеров, а национальные органы власти должны принимать соответствующие регуляторные меры. В ISD считают, что компании-разработчики должны прийти к согласию относительно того, какие источники не следует использовать, или по крайней мере предоставлять пользователям дополнительный контекст, объясняя, почему определенные ресурсы являются сомнительными или находятся под санкциями.
Стоит напомнить, что это не первое подобное исследование. Еще одно такое провели ранее, и оно показало, что Россия намеренно создает многочисленные однотипные сайты, единственное назначение которых – попасть под сканирование ИИ. Они массово публикуют одинаковую дезинформацию, чтобы создать иллюзию легитимности и массовости.