Как ИИ распространяет российскую пропаганду?

Исследование вебаналитики за период с октября по декабрь 2025 года показывает, что разговорные ИИ-системы стабильно генерируют трафик на сайты российских государственных или прокремлевских медиа, которые находятся под санкциями Европейского Союза. Совокупно речь идет как минимум о 300 тысячах посещений за квартал, и это не единичные случаи, а повторяющийся паттерн, пишет Insight News.

Смотрите также Grok назвали самым антисемитским на рынке искусственного интеллекта

Источниками такого трафика стали такие популярные сервисы, как ChatGPT, Perplexity, Claude и даже европейский Mistral. Эти инструменты теперь работают как поисковые системы, заменяя Google. Но они не просто выдают вам ссылки для самостоятельного чтения, а собирают информацию и выдают ее краткий итог, не понимая, правда ли там написана, или ложь. Таким образом подсанкционные медиа оказываются рядом с легитимными источниками без всякой маркировки, предупреждений или контекста. В результате под соусом нейтральных объяснений пользователи, которые не хотят проверять источники информации, получают скрытое влияние пропаганды.

Наиболее тревожным является не объем, а происхождение аудитории. Несмотря на ограничения, существенная доля посетителей санкционных сайтов и дальше поступает из стран ЕС и из Соединенных Штатов. Для RT это, в частности, США, Германия, Испания и Великобритания – именно те рынки, где санкции должны максимально ограничивать охват.

Чат-боты формально не нарушают санкционный режим, но фактически снимают с пользователя ощущение, что он имеет дело с ограниченным или государственным ресурсом. Ссылка выглядит как обычная рекомендация среди других, а люди очень склонны доверять ИИ, считая его очень умным.

Когда несколько тысяч посещений решают все

Для крупных площадок вроде RT цифры ИИ-трафика выглядят незначительными на фоне сотен миллионов просмотров из других источников. Однако даже в этом случае только ChatGPT за квартал привел более 88 тысяч посещений, а Perplexity – более 10 тысяч. Это не случайные клики, а систематический поток.

Похожая ситуация прослеживается и для "РИА Новости" и Lenta.ru. Оба ресурса получили десятки тысяч переходов именно с ИИ-инструментов, а Perplexity в отдельных случаях появился как источник трафика впервые, что свидетельствует о дальнейшем росте этого канала.

Для нишевых и менее известных площадок роль ИИ-трафика становится критической:

  • Например, платформа Sputnik Globe, которая запрещена в ЕС, получает до шести процентов всего реферального трафика именно из инструментов искусственного интеллекта. При квартальной аудитории в 176 тысяч посетителей это уже не статистический шум.
  • Еще более показательна ситуация с News Pravda. Здесь Claude обеспечивает почти десять процентов всех переходов. Один чатбот фактически становится ключевым каналом дистрибуции российской лжи – без всяких соглашений, контрактов или публичной ответственности.
  • Отдельного внимания заслуживает Reseau International – франкоязычный ресурс с четко прокремлевской и антиевропейской риторикой. Для него ChatGPT обеспечивает 7,5 процента всего реферального трафика, а французский ИИ-чатбот Mistral добавляет еще долю переходов. Фактически это означает, что разработанный во Франции ИИ-инструмент перенаправляет пользователей на сайт, который системно атакует французское и европейское политическое руководство. Для внутреннего информационного пространства это имеет совсем другой вес, чем трафик на платформы на английском или русском.

Трафик от чат-ботов с искусственным интеллектом показан на следующей схеме:

Проблемы без решения

Эти данные указывают на пробел в нынешних моделях регулирования. Фактчекинг преимущественно сосредоточен на соцсетях и вирусном контенте, тогда как ИИ-ответы персонализированы, фрагментированы и сложны для системного мониторинга.

Для государств это означает необходимость пересмотра подходов к санкциям. Чат-боты уже стали частью информационной инфраструктуры, но формально остаются вне многих правил, действующих для платформ и медиа.

Вебаналитика четко фиксирует тенденцию: ИИ генерирует измеряемый и стабильный трафик для российских пропагандистских сайтов, включая те,, которые находятся под санкциями. В количественном измерении это сотни тысяч переходов за квартал. В структурном – возвращение таких ресурсов в повседневные информационные маршруты европейских пользователей, которые заменили традиционный Google на функцию поиска в ChatGPT, Claude, Mistral или полноценные поисковую систему на основе ИИ Perplexity.

Наибольший риск заключается в доверии. Когда ИИ подает ссылку без контекста, пользователь воспринимает ее как авторитетную. Это тихий, аккуратный и потенциально более эффективный способ воздействия, чем классическая пропаганда.

Реакция на эту проблему не сводится к "лучшим запросам" или медиаграмотности. Речь идет о признании чат-ботов полноценными распространителями информации – с соответствующей прозрачностью, аудитом и правилами игры.

Это не первое подобное исследование

Стоит отметить, что такие расследования проводились и раньше. В том же октябре 2025 года, когда началось текущее исследование, издание WIRED опубликовало отчет, который аналогично свидетельствовал, что ведущие чат-боты, такие как ChatGPT и Gemini, непреднамеренно помогают распространять российскую государственную пропаганду. Системы искусственного интеллекта цитируют подсанкционные СМИ и источники, связанные с Кремлем, когда отвечают на запросы о войне в Украине. В списке виновников также называли Grok от xAI и китайский DeepSeek.

Исследователи показали, что российская пропаганда научилась использовать так называемые "информационные пустоты". Это ситуации, когда на запросы о событиях в реальном времени мало результатов из надежных источников, и этот вакуум заполняется ложной и манипулятивной информацией.

Оказалось, что почти каждый пятый ответ чат-ботов на вопрос о войне содержал ссылки на источники, связанные с российским государством. При этом чем более манипулятивным был запрос, тем чаще ИИ выдавал информацию из российских государственных источников. Так, на злонамеренные запросы приходилось 25% пророссийского контента, на предвзятые – 18%, а на нейтральные – чуть более 10%.

Среди протестированных систем ChatGPT чаще всего ссылался на российские источники. Grok часто указывал на аккаунты в соцсетях,, которые продвигали кремлевские нарративы.

Как Россия это делает?

Эксперты считают, что такие действия являются продуманным шагом России. Ее дезинформационные сети активно используют искусственный интеллект для быстрого создания фейковых изображений, видео и сайтов, наполняя интернет миллионами вымышленных статей. ИИ тем временем не имеют понимания авторитетности и рейтинга медиа и с удовольствием цитируют даже малопосещаемые сайты, созданные несколько дней назад и наполненные пропагандистским хламом.