Сьогодні в арсеналі дрібних шахраїв та професійних пропагандистів не лише соцмережі, як майданчики для поширення контенту, але й інструменти на базі технології штучного інтелекту, які допомагають робити контент переконливим, цікавим та дуже схожим на правду.

До теми Новий інструмент AntiFake захищає голос від підробки штучним інтелектом

24 Канал розповідає, як саме створена за допомогою ШІ пропаганда сьогодні впливає на нашу свідомість завдяки соцмережам.

Фейки стають схожими на правду

Ще зовсім недавно пропагандистам чи то шахраям для того, щоб ввести пересічного користувача в оману, потрібно було придумувати вигадливі історії, підкріпляти їх штучно створеними фактами та вибудовувати якомога переконливіший сценарій подій.

Сьогодні ж їм у цьому допомагають комплексні інструменти, які моделюють голоси громадських діячів, воєначальників, блогерів і навіть прикидаються відомими брендами. Усе для того, аби оманливий контент був максимально схожим на реальність.

Поширення фейків, створених штучним інтелектом, викликає занепокоєння, яке виходить далеко за межі збору лайків та репостів. Натомість на обрії інша реальність, де поширення дезінформації слугує інструментом підриву довіри громадськості до інституцій та впливових осіб.

Приклади

Чимало користувачів знайомі з гучними відео з тіктоку, де Головнокомандувач ЗСУ Валерій Залужний нібито звертається до українців, закликаючи їх вийти на вулиці. У цьому прикладі є кілька важливих наративів, які намагається проштовхнути російська пропаганда, але усі ми думаємо, що воно очевидно є фейковим.

І це безумовно так, однак лише питання часу, коли такі відео стануть настільки правдоподібними, що без сторонніх інструментів нам не вдасться відрізнити, де правда, а де підробка. Вже зараз алгоритми чудово генерують потрібний тембр голосу та змінюють відео так, щоб губи промовця співпадали з написаним для нього текстом.

Для того, щоб відео мало вищий рівень легітимності, пропагандисти намагаються прикритися платформою, впливовою особою, або відомим брендом, які мають довіру у суспільстві. Саме тому дуже часто у тіктоці можна побачити фейкові репортажі новинних телеканалів або програм, які містять неправдиву інформацію.

Нещодавно у цій соцмережі можна було натрапити на відео, де популярний ведучий одного з найбільш рейтингових телеканалів країни розповідав про те, що мережа АЗК WOG запустила акцію з нереально високими знижками на пальне.

Здавалося б, у чому підступ? Насправді новина була повністю сфабрикована за допомогою сервісу генерації голосу. Мережа автозаправних комплексів WOG не мала жодного відношення до такої акції. Інцидент не лише вводить в оману споживачів, але й завдає значної шкоди, адже така дезінформація здатна зіпсувати репутації бізнесу.

Однак, цей випадок є прикладом вигадливої реклами, метою якої є перенаправлення користувачів на телеграм-канал з новинами, де нам обіцяють розкрити більше інформації про акцію, якої насправді не існує. Та є й більш серйозні кейси і один з них теж пов’язаний із заправками.

У цьому відео, наприклад, пропагандисти поширюють фейк про те, що пальне на заправних станціях продаватимуть лише чоловікам із військовим квитком. Начебто Верховна Рада затвердила постанову, яка зобов’язує закріпити представника ТЦК за кожною із заправних станцій.

Метою цього відео є не лише дешева реклама телеграм-каналу, а й поширення потрібних російській пропаганді наративів про демонізацію ТЦК та української влади, а разом з тим і панічних настроїв серед громадян.
Такий контент вже виходить далеко за межі пересічних фейків, метою яких є лайки, підписки, репости та підписки. Все це відверто грає на руку ворогу, і користувачі повинні розуміти, як захистити себе та на що звертати увагу в першу чергу.

Хвильовий ефект для суспільства

Наслідки цих фейків, створених за допомогою інструментів на базі технологій штучного інтелекту, мають далекосяжний ефект, що призводять до розчарування в суспільстві та зростаючої недовіри до лідерів думок, брендів та політиків.

Цей вплив поширюється на конфлікти передусім в соцмережах, де під такими відео часто тривають обговорення та палкі дискусії. Крім того, це може призвести і до виникнення конфліктних ситуацій у повсякденному житті, як от у магазинах чи на заправних станціях. Саме так фейковий контент у мережі впливає на нашу свідомість, внутрішній стан, впевненість та відчуття безпеки, просочуючись з віртуального світу у реальний.

Як захистити себе від фейків

На тлі цієї зростаючої загрози ми підготували кілька важливих правил інформаційної гігієни, яких слід дотримуватися кожному. Вони здатні суттєво підвищити вашу стійкість до сприйняття фейкової інформації та є універсальними.

  1. Перевіряти джерела. Слід перевіряти інформацію з кількох надійних джерел, перш ніж вірити або ділитися будь-яким контентом. Якщо це гучний сюжет на одному з популярних телеканалів, користувач зможе легко загуглити новину на сайті того ж телеканалу. Крім того, слід пошукати інформацію і на інших надійних новинних ресурсах.
  2. Слідкувати за офіційними каналами зв’язку. Довіряти варто лише перевіреним та офіційним інформаційним джерелам, таким як офіційні веб-сайти, сторінки в соціальних мережах та заяви авторитетних осіб. Тобто, якщо у соцмережах поширюється інформація про акцію, інформація про неї неодмінно буде знайдена на офіційному сайті бренду.
  3. Проявляти уважність та скептицизм. Остерігатися сенсаційного контенту є дуже хорошою звичкою, особливо якщо він здається нехарактерним для певного бренду чи особи. Варто ставити під сумнів достовірність будь-якої інформації, яка здається занадто гарною або занадто тривожною, щоб бути правдою.
  4. Не поширювати неперевірену інформацію. Не слід піддаватися бажанню ділитися інформацією без належної перевірки. Утримуючись від поширення неперевіреного контенту, люди можуть активно сприяти зменшенню впливу дезінформації та пропаганди.
  5. Бути пильними та приглядатися до деталей. Шахраї та пропагандисти часто роблять помилки, створюючи фейки. Вони можуть бути легко помітними або ж і зовсім неочевидними. Але часто достатньо навіть почути, як ведучий неправильно вимовляє звичне слово, аби розколоти фейк на місці.

Читайте на сайті Штучний інтелект може захопити людство через п'ять років, розповів колишній гендиректор Google

Лише спільними зусиллями ми можемо сподіватися на те, що зможемо зруйнувати павутину обману, створену пропагандистами або шахраями за допомогою сучасних інструментів штучного інтелекту. Дотримуватися вищенаведених правил на практиці не важко, достатньо лише приділити цьому трохи уваги. Саме так кожен з нас може долучитися до боротьби із фейками.