Генеративний штучний інтелект, що набув популярності та шаленого розвитку за останні кілька років, лише посилив крихкість демократії. Поки авторитарні диктатори "зацементовані" десятки років у своїх кріслах, вільний світ намагається проводити вибори, а отже – стає мішенню атак диктатур.

І тепер їм у цій справі активно допомагає такий інструмент як штучний інтелект. Зокрема – Росії проти України. Про що в жовтні на Сінгапурському міжнародному кібертижні заявив заступник голови МЗС з питань цифрового розвитку, цифрових трансформацій і цифровізації Антон Демьохін.

Як Росія загрожує демократії за допомогою штучного інтелекту та про що кажуть в українському уряді – читайте у матеріалі 24 Каналу.

Росія використовує генеративний штучний інтелект для посилення кампаній з дезінформації проти України. Про це заявив заступник МЗС з питань цифрового розвитку, цифрових трансформацій і цифровізації Антон Демьохін на Сінгапурському міжнародному кібертижні. Урядовець назвав це глобальною небезпекою.

Що таке генеративний штучний інтелект

Генеративний штучний інтелект (ШІ) з'явився на початку 2020-х років завдяки розвитку штучних нейронних мереж, що імітують роботу людського мозку. Ці моделі навчаються на величезних масивах даних (текстах, зображеннях) і можуть спілкуватися з людьми (чат-боти ChatGPT, Copilot, Bard) або створювати зображення (Midjourney, DALL-E). Важливо розуміти, що генеративний ШІ не має свідомості, на відміну від гіпотетичного загального ШІ, який може з'явитися в майбутньому.

Генеративний ШІ використовують і для поширення дезінформації у соцмережах. Фейкові зображення, такі як фото Папи Римського в пуховику від Balenciaga, стають вірусними, поширюючи дезінформацію. ШІ-контент створює проблеми з довірою до інформації, оскільки його важко відрізнити від реальності. Це загрожує демократії та підсилює поширення фейкових новин. Соцмережі, як Meta, намагаються боротися з цим, позначаючи ШІ-контент.

Цього року ми бачимо, що щільність кібератак [з боку Росії] зберігається, але вони більше акцентуються на дезінформації. Тепер, коли з'явився генеративний ШІ, вдається множити та поширювати дезінформаційні наративи на новому, складнішому рівні,
– зауважив Демьохін.


Антон Демьохін / Фото Kyiv International Cyber Resilience Forum

За словами заступника голови МЗС, нові кампанії з дезінформації важко виявити через їхнє поширення у соцмережах для підвищення довіри до них.

До теми Папа Римський у Balenciaga та Ісус-креветка: як ШІ перетворює соцмережі на зомбі-інтернет

За кілька днів до заяви Демьохіна у розвідці США заявили, що Росія – одна з країн, які використовують інструменти штучного інтелекту для спроб маніпуляцій з американськими виборцями напередодні президентських виборів у листопаді.

Демьохін, виступаючи в кулуарах Сінгапурського міжнародного кібертижня, сказав, що Україна відстежує російські дезінформаційні кампанії в країнах по всьому світу, і наголосив, що держави мають сівпрацювати для боротьби з дезінформацією.

Україна також використовує генеративний штучний інтелект, заявив Демьохін – для відстеження кампаній з дезінформації, але відмовився коментувати, чи здійснювала Україна власні кібератаки.
За словами Демохіна, російські кібератаки все частіше спрямовані на українські ланцюги поставок і критичну інфраструктуру, проникаючи в компанії, які постачають ключові компоненти, такі як датчики або лічильники електроенергії.

У червні агенція Reuters з посиланням на власні джерела повідомляла, що Міжнародний кримінальний суд розслідує ймовірні російські кібератаки на українську цивільну інфраструктуру як військові злочини.
Демьохін підтвердив, що Україна тісно співпрацює з МКС над розслідуванням і останнім часом досягла певних проривів.

У травні 2024 року компанія OpenAI, розробник чатботу ШІ ChatGPT, заявила про виявлення та зупинку п'яти онлайн-кампаній, які використовували генеративний ШІ для маніпуляцій суспільною думкою по всьому світу та впливу на геополітику.

Серед країн, чиї кампанії виявили в OpenAI – Росія, Китай, Іран та Ізраїль. В ІПСО використовували ШІ для створення дописів у соцмережах, перекладу та редагування статей, написання заголовків і налаштувань програм. Метою цього, як правило, було залучення підтримки для політичних кампаній або для зміни суспільної думки в геополітичних конфліктах.

За словами Бена Німмо, головного дослідника OpenAI, шахраї часто використовували технологію OpenAI для публікації політичного контенту. Водночас важко визначити, чи були вони націлені на конкретні вибори, чи мали на меті просто роздратувати людей. Як стверджував Німмо, ШІ-кампанії не набули великої популярності.

Цим операціям впливу все ще важко створити аудиторію,
– додав Німмо.

Інструменти OpenAI зокрема використовувалися у кампаніях, які дослідники відстежували роками – це російський "Двійник" (Doppelganger) та китайська Spamouflage.

За твердженням OpenAI, кампанія Doppelganger використовувала технологію OpenAI для створення антиукраїнських коментарів, які публікували на X англійською, французькою, німецькою, італійською та польською мовами.

Інструменти компанії також використовувалися для перекладу та редагування статей, які підтримували Росію у війні проти України, англійською та французькою мовами, а також для конвертації антиукраїнських новинних статей у дописи на Facebook.

До теми Вирішальна битва за Молдову: як Росія хоче захопити владу після виборів і до чого тут Україна

  • Інструменти OpenAI також використовувалися у відносно новій російській кампанії, націленій на Україну, Молдову, країни Балтії та США через телеграм.
  • У кампанії ШІ генерував коментарі російською та англійською мовами про війну проти України, а також політичну ситуацію в Молдові та США.

Але ця кампанія не була ефективною через примітивні коментарі та періодичні спрацювання ШІ-чатбота, який писав у коментарях "я тут, щоб допомогти та надати бажаний коментар" поганою англійською мовою.

У вересні американська розвідка заявила, що Росія збільшила продукування контенту від ШІ для впливу на президентські вибори у США, та робить це більше за будь-яку іншу державу. Мета Росії – перемога кандидата від Республіканської партії Дональда Трампа.

Представник офісу директора національної розвідки (ODNI) анонімно прокоментував питання впливу Росії на вибори. За його словами, російський ШІ-контент має на меті очорнити Камалу Гарріс та Демократичну партію через конспірологічні наративи.

Зокрема, росіяни створили та поширили відео, де жінка стверджувала, що стала жертвою автокатастрофи, скоєної Гарріс. Однак, за словами джерела, відео було інсценовано, а не створено за допомогою ШІ. Технології штучного інтелекту також використовує Китай для впливу на свою репутацію у світі, але не з метою впливу на американські президентські вибори

Китай використовує штучний інтелект у більш широких операціях впливу, прагнучи сформувати глобальні погляди на Китай і посилити розбіжності в політичних питаннях США. Ми ще не зафіксували, щоб Китай використовував ШІ для будь-яких конкретних операцій, націлених на результати виборів у США,
– пояснив чиновник з розвідки.

Іран також використовує ШІ для створення контенту для соцмереж та сайтів фейкових новин англійською та іспанською мовами. Він націлений на американських виборців, які цікавляться Ізраїлем та конфліктом у Газі.

На початку червня в Євросоюзі відбулися чергові вибори до Європарламенту – і Росія не могла їх не оминути. Росія використовувала свої численні мережі впливу – від Doppelganger з клонами міжнародних медіа до "Матрьошки" та Pravda, розповів Радіо Свобода Валентін Шателе, науковий співробітник з питань безпеки у Лабораторії цифрових криміналістичних досліджень "Атлантичної ради".

Цікаво! МЗС Німеччини у січні 2024 року викрило російську дезінформаційну кампанію у X, в якій було задіяно близько 50 000 акаунтів. Вони опублікували понад мільйон дописів німецькою мовою із засудженням підтримки України Німеччиною. Кампанія тривала з 20 грудня 2023 року до 20 січня 2024-го.

Дезінформаційні кампанії використовували X, Facebook та 9GAG для поширенні статей з фейкових новинних сайтів, а також поширення фейкових відео. Також росіяни використовували ШІ – для генерування коментарів, зазначав Шателе. Наприклад, у лютому 2024 року проросійське видання з мережі Pravda поширило діпфейк нібито з французького телеканалу France24.

На ньому згенерований телеведучий стверджував, що французький президент Емманюель Макрон відмовився відвідувати Україну через побоювання вбивства.

Читайте також "Падіння Олімпіади": як Росія хоче зірвати Олімпійські ігри в Парижі за допомогою ШІ

Найбільше російські кампанії зосередилися тоді на Франції, Німеччині та Польщі.

Вчені з університету Клемсона Даррен Лінвілл і Патрік Воррен, які досліджували російську пропаганду, визначили три фази, які проходить дезінформаційна кампанія. Перша – розміщення, далі – поширення серед облікових записів соцмереж та ненадійних медіа. Фінальна фаза – новини підхоплюють якісні медіа.

Головною ціллю цих [дезінформаційних] наративів залишається внутрішня аудиторія, а місцеві події подаються таким чином, щоб викликати ворожнечу серед нинішніх політичних лідерів у Франції, Німеччині та Польщі. Загалом російська стратегія спирається на загострення розбіжностей у державах-членах ЄС, щоб підірвати партії ліберальної більшості та підкріпити маргінальні вимоги політиків, підозрюваних у фінансуванні з Кремля, таких як французькі Ле Пен і Барделла,
– пояснював Шателе.

Україну та тему війни проти неї російські мережі використовували у передвиборних кампаніях як "тригер" для критики певних політиків, стверджував експерт.

ЄС бореться з дезінформацією та працює на підвищення медіаграмотності населення, але ресурсу таких проєктів, в тому числі Stratcom, не достатньо для протистояння російському впливу. Навіть в умовах того, що через розвиток ШІ виклики у боротьбі з дезінформаційними кампаніями росіян лише зростатимуть.