Генеративный искусственный интеллект, приобретший популярность и безумное развитие за последние несколько лет, лишь усилил хрупкость демократии. Пока авторитарные диктаторы зацементированы десятки лет в своих креслах, свободный мир пытается проводить выборы, а значит – становится мишенью атак диктатур.

И теперь им в этом деле активно помогает такой инструмент, как искусственный интеллект, в частности ИИ России против Украины. Об этом в октябре на Сингапурской международной кибернеделе заявил заместитель главы МИД по вопросам цифрового развития, цифровых трансформаций и цифровизации Антон Демёхин.

Как Россия угрожает демократии с помощью искусственного интеллекта и о чем говорят в украинском правительстве – читайте в материале 24 Канала.

Россия использует генеративный искусственный интеллект для усиления кампаний по дезинформации против Украины. Об этом заявил заместитель главы МИД по вопросам цифрового развития, цифровых трансформаций и цифровизации Антон Демёхин на Сингапурской международной кибернеделе. Чиновник назвал это глобальной опасностью.

Что такое генеративный искусственный интеллект

Генеративный искусственный интеллект (ИИ) появился в начале 2020-х годов благодаря развитию искусственных нейронных сетей, имитирующих работу человеческого мозга. Эти модели обучаются на огромных массивах данных (текстах, изображениях) и могут общаться с людьми (чат-боты ChatGPT, Copilot, Bard) или создавать изображения (Midjourney, DALL-E). Важно понимать, что генеративный ИИ не имеет сознания, в отличие от гипотетического общего ИИ, который может появиться в будущем.

Генеративный ИИ используют и для распространения дезинформации в соцсетях. Фейковые изображения, такие как фото Папы Римского в пуховике от Balenciaga, становятся вирусными, распространяя дезинформацию. ИИ-контент создает проблемы с доверием к информации, поскольку его трудно отличить от реальности. Это угрожает демократии и усиливает распространение фейковых новостей. Соцсети, такие как Meta, пытаются бороться с этим, обозначая ИИ-контент.

В этом году мы видим, что плотность кибератак [со стороны России] сохраняется, но они больше акцентируются на дезинформации. Теперь, когда появился генеративный ИИ, удается умножать и распространять дезинформационные нарративы на новом, более сложном, уровне,
– отметил Демёхин.


Антон Демёхин / Фото Kyiv International Cyber Resilience Forum

По словам заместителя главы МИД, новые кампании по дезинформации трудно обнаружить из-за их распространения в соцсетях для повышения доверия к ним.

К теме Папа Римский в Balenciaga и Иисус-креветка: как ИИ превращает соцсети в зомби-интернет

За несколько дней до заявления Демёхина в разведке США заявили, что Россия – одна из стран, которые используют инструменты искусственного интеллекта для попыток манипуляций с американскими избирателями накануне президентских выборов в ноябре.

Демёхин, выступая в кулуарах Сингапурской международной кибернеделе, сказал, что Украина отслеживает российские дезинформационные кампании в странах по всему миру, и подчеркнул, что государства должны работать вместе для борьбы с дезинформацией.

Украина также использует генеративный искусственный интеллект, заявил Демёхин, – для отслеживания кампаний по дезинформации, но отказался комментировать, осуществляла ли Украина собственные кибератаки.
По словам Демёхина, российские кибератаки все чаще направлены на украинские цепи поставок и критическую инфраструктуру, проникая в компании, которые поставляют ключевые компоненты, такие как датчики или счетчики электроэнергии.

В июне агентство Reuters со ссылкой на собственные источники сообщало, что Международный уголовный суд расследует вероятные российские кибератаки на украинскую гражданскую инфраструктуру как военные преступления.
Демёхин подтвердил, что Украина тесно сотрудничает с МУС над расследованием и в последнее время достигла определенных прорывов.

В мае 2024 года компания OpenAI, разработчик чатбота ИИ ChatGPT, заявила об обнаружении и остановке пяти онлайн-кампаний, которые использовали генеративный ИИ для манипуляций общественным мнением по всему миру и влияния на геополитику.

Среди стран, чьи кампании обнаружили в OpenAI, – Россия, Китай, Иран и Израиль. В ИПСО использовали ИИ для создания сообщений в соцсетях, перевода и редактирования статей, написания заголовков и настроек программ. Целью этого, как правило, было привлечение поддержки для политических кампаний или для изменения общественного мнения в геополитических конфликтах.

По словам Бена Ниммо, главного исследователя OpenAI, мошенники часто использовали технологию OpenAI для публикации политического контента. В то же время трудно определить, были ли они нацелены на конкретные выборы, или имели целью просто раздражать людей. Как утверждал Ниммо, ИИ-кампании не приобрели большой популярности.

Этим операциям влияния все еще трудно создать аудиторию,
– добавил Ниммо.

Инструменты OpenAI, в частности, использовались в кампаниях, которые исследователи отслеживали годами: это российский "Двойник" (Doppelganger) и китайская Spamouflage.

По утверждению OpenAI, кампания Doppelganger использовала технологию OpenAI для создания антиукраинских комментариев, которые публиковали на X на английском, французском, немецком, итальянском и польском языках.

Инструменты компании также использовались для перевода и редактирования статей, которые поддерживали Россию в войне против Украины, на английском и французском языках, а также для конвертации антиукраинских новостных статей в сообщения на Facebook.

К теме Решающая битва за Молдову: как Россия хочет захватить власть после выборов и причем здесь Украина

  • Инструменты OpenAI также использовались в относительно новой российской кампании, нацеленной на Украину, Молдову, страны Балтии и США через телеграмм.
  • В кампании ИИ генерировал комментарии на русском и английском языках о войне против Украины, а также политической ситуации в Молдове и США.

Но эта кампания не была эффективной из-за примитивных комментариев и периодических срабатываний ИИ-чатбота, который писал в комментариях "я здесь, чтобы помочь и предоставить желаемый комментарий" на плохом английском языке.

В сентябре американская разведка заявила, что Россия увеличила продуцирование контента ИИ для влияния на президентские выборы в США и делает это больше любого другого государства. Цель России – победа кандидата от Республиканской партии Дональда Трампа.

Представитель офиса директора национальной разведки (ODNI) анонимно прокомментировал вопрос влияния России на выборы. По его словам, российский ИИ-контент имеет целью очернить Камалу Харрис и Демократическую партию через конспирологические нарративы.

В частности, россияне создали и распространили видео, где женщина утверждала, что стала жертвой автокатастрофы, совершенной Харрис. Однако, по словам источника, видео было инсценировано, а не создано с помощью ИИ. Технологии искусственного интеллекта также использует Китай для влияния на свою репутацию в мире, но не с целью влияния на американские президентские выборы.

Китай использует искусственный интеллект в более широких операциях влияния, стремясь сформировать глобальные взгляды на Китай и усилить разногласия в политических вопросах США. Мы еще не зафиксировали, чтобы Китай использовал ИИ для каких-либо конкретных операций, нацеленных на результаты выборов в США,
– объяснил чиновник из разведки.

Иран также использует ИИ для создания контента для соцсетей и сайтов фейковых новостей на английском и испанском языках. Он нацелен на американских избирателей, которые интересуются Израилем и конфликтом в Газе.

В начале июня в Евросоюзе состоялись очередные выборы в Европарламент – и Россия не могла их обойти. Россия использовала свои многочисленные сети влияния – от Doppelganger с клонами международных медиа до "Матрешки" и Pravda, рассказал Радио Свобода Валентин Шателе, научный сотрудник по вопросам безопасности в Лаборатории цифровых криминалистических исследований "Атлантического совета".

Интересно! МИД Германии в январе 2024 года разоблачило российскую дезинформационную кампанию в X, в которой было задействовано около 50 000 аккаунтов. Они опубликовали более миллиона сообщений на немецком языке с осуждением поддержки Украины Германией. Кампания длилась с 20 декабря 2023 года до 20 января 2024-го.

Дезинформационные кампании использовали X, Facebook и 9GAG для распространении статей с фейковых новостных сайтов, а также фейковых видео. Также россияне использовали ИИ для генерирования комментариев, отмечал Шателе. Например, в феврале 2024 года пророссийское издание из сети Pravda распространило дипфейк якобы с французского телеканала France24.

На нем сгенерированный телеведущий утверждал, что французский президент Эмманюэль Макрон отказался посещать Украину из-за опасений убийства.

Читайте также "Падение Олимпиады": как Россия хочет сорвать Олимпийские игры в Париже с помощью ИИ

Больше всего российские кампании сосредоточились тогда на Франции, Германии и Польше.

Ученые из университета Клемсона Даррен Линвилл и Патрик Уоррен, которые исследовали российскую пропаганду, определили три фазы, которые проходит дезинформационная кампания. Первая – размещение, далее – распространение среди учетных записей соцсетей и ненадежных медиа. Финальная фаза – новости подхватывают качественные медиа.

Главной целью этих [дезинформационных] нарративов остается внутренняя аудитория, а местные события подаются таким образом, чтобы вызвать вражду среди нынешних политических лидеров во Франции, Германии и Польше. В целом российская стратегия опирается на обострение разногласий в государствах – членах ЕС, чтобы подорвать партии либерального большинства и подкрепить маргинальные требования политиков, подозреваемых в финансировании из Кремля, таких как французские Ле Пен и Барделла,
– объяснял Шателе.

Украину и тему войны против нее российские сети использовали в предвыборных кампаниях как триггер для критики определенных политиков, утверждал эксперт.

ЕС борется с дезинформацией и работает на повышение медиаграмотности населения, но ресурса таких проектов, в том числе Stratcom, недостаточно для противостояния российскому влиянию. Даже в условиях того, что из-за развития ИИ вызовы в борьбе с дезинформационными кампаниями россиян будут только расти.