Сегодня в арсенале мелких мошенников и профессиональных пропагандистов не только соцсети как площадки для распространения контента, но и инструменты на базе технологии искусственного интеллекта, которые помогают делать контент убедительным, интересным и очень похожим на правду.

К теме Новый инструмент AntiFake защищает голос от подделки искусственным интеллектом

24 Канал рассказывает, как именно созданная посредством ИИ пропаганда сегодня влияет на наше сознание благодаря соцсетям.

Фейки становятся похожими на правду

Еще совсем недавно пропагандистам или мошенникам для того, чтобы ввести рядового пользователя в заблуждение, нужно было придумывать затейливые истории, подкреплять их искусственно созданными фактами и выстраивать более убедительный сценарий событий.

Сегодня им в этом помогают комплексные инструменты, моделирующие голоса общественных деятелей, военачальников, блогеров и даже притворяются известными брендами. Все для того, чтобы обманчивый контент был максимально похож на реальность.

Распространение фейков, созданных искусственным интеллектом, вызывает беспокойство, выходящее далеко за пределы сбора лайков и репостов. На горизонте другая реальность, где распространение дезинформации служит инструментом подрыва доверия общественности к институтам и влиятельным лицам.

Примеры

Многие пользователи знакомы с громкими видео с тиктока, где Главнокомандующий ВСУ Валерий Залужный якобы обращается к украинцам, призывая их выйти на улицы. В этом примере есть несколько важных нарративов, которые пытается протолкнуть российская пропаганда, но все мы думаем, что оно очевидно фейковое.

И это безусловно так, однако лишь вопрос времени, когда такие видео станут настолько правдоподобными, что без посторонних инструментов нам не удастся отличить, где правда, а где подделка. Уже сейчас алгоритмы прекрасно генерируют нужный тембр голоса и изменяют видео, чтобы губы оратора совпадали с написанным для него текстом.

Для того чтобы видео обладало более высоким уровнем легитимности, пропагандисты пытаются прикрыться платформой, влиятельным лицом или известным брендом, имеющим доверие в обществе. Именно поэтому очень часто в тектоке можно увидеть фейковые репортажи новостных телеканалов или программ, содержащих ложную информацию.

Недавно в этой соцсети можно было встретить видео, где популярный ведущий одного из самых рейтинговых телеканалов страны рассказывал о том что сеть АЗК WOG запустила акцию с нереально высокими скидками на горючее.

Казалось бы, в чем подвох? На самом деле, новость была полностью сфабрикована с помощью сервиса генерации голоса. WOG не имела никакого отношения к такой акции. Инцидент не только вводит в заблуждение потребителей, но и наносит значительный ущерб, ведь такая дезинформация способна испортить репутацию бизнеса.

Однако этот случай является примером вычурной рекламы, цель которой – перенаправить пользователей на телеграм-канал с новостями, где нам обещают раскрыть больше информации об акции, которой на самом деле не существует. Да есть и более серьезные кейсы, и один из них тоже связан с заправками.

В этом видео, например, пропагандисты распространяют фейк о том что горючее на заправочных станциях будут продавать только мужчинам с военным билетом. Вроде бы Верховная Рада утвердила постановление, обязывающее закрепить представителя ТЦК за каждой из заправочных станций.

Целью этого видео является не только дешевая реклама канала, но и распространение нужных российской пропаганде нарративов о демонизации ТЦК и украинских властей, а вместе с тем и панических настроений среди граждан.
Такой контент уже выходит далеко за пределы рядовых фейков, целью которых являются лайки, репосты и подписки. Все это откровенно играет на руку врагу и пользователи должны понимать, как защитить себя и на что обращать внимание в первую очередь.

Волновой эффект для общества

Последствия этих фейков, созданных с помощью инструментов на базе технологий искусственного интеллекта, обладают дальновидным эффектом, приводящим к разочарованию в обществе и растущему недоверию к лидерам мнений, брендам и политикам.

Это влияние распространяется на конфликты, прежде всего, в соцсетях, где под такими видео часто продолжаются обсуждения и жаркие дискуссии. Кроме того, это может привести к возникновению конфликтных ситуаций в повседневной жизни – магазинах или на заправочных станциях. Именно так фейковый контент в сети влияет на наше сознание, внутреннее состояние, уверенность и безопасность, просачиваясь из виртуального мира в реальный.

Как защитить себя от фейков

На фоне этой растущей угрозы мы подготовили несколько важных правил информационной гигиены, которые следует соблюдать каждому. Они способны существенно повысить вашу устойчивость к восприятию фейковой информации и являются универсальными.

  1. Проверять источники. Прежде чем верить или делиться любым контентом, следует проверять информацию из нескольких надежных источников. Если это громкий сюжет на одном из популярных телеканалов, пользователь сможет легко найти новость на сайте того же телеканала. Кроме того, следует поискать информацию и на других надежных новостных ресурсах.
  2. Следить за официальными каналами связи. Доверять следует только проверенным и официальным информационным источникам, таким как официальные веб-сайты, страницы в социальных сетях и заявления авторитетных лиц. То есть, если в соцсетях распространяется информация об акции, информация о ней обязательно будет найдена на официальном сайте бренда.
  3. Проявлять внимательность и скептицизм. Опасаться сенсационного контента является очень хорошей привычкой, особенно если он кажется нехарактерным для определенного бренда или личности. Следует сомневаться в достоверности любой информации, которая кажется слишком хорошей или слишком тревожной, чтобы быть правдой.
  4. Не распространяйте непроверенную информацию. Не следует поддаваться желанию делиться информацией без должной проверки. Воздерживаясь от распространения непроверенного контента, люди могут активно способствовать уменьшению влияния дезинформации и пропаганды.
  5. Быть внимательными и присматриваться к деталям. Мошенники и пропагандисты часто совершают ошибки, создавая фейки. Они могут быть легко заметны или же и совсем неочевидны. Но часто достаточно даже услышать, как ведущий неправильно произносит обычное слово, чтобы расколоть фейк на месте.

Читайте на сайте Искусственный интеллект может захватить человечество через пять лет, рассказал бывший гендиректор Google.

Только совместными усилиями мы можем надеяться, что сможем разрушить паутину обмана, созданную пропагандистами или мошенниками с помощью современных инструментов искусственного интеллекта. Соблюдать вышеприведенные правила на практике не трудно, достаточно лишь уделить этому немного внимания. Именно так каждый из нас может присоединиться к борьбе с фейками.