Укр Рус
24 ноября, 17:09
3

Цифровые двойники известных украинок: как дипфейки манипулируют сознанием зрителей

Основні тези
  • В украинском TikTok растет количество дипфейков, где мошенники используют образы известных журналисток для манипулятивного контента.
  • Такие видео часто содержат призывы к поддержке фейковых петиций или ложные обещания финансовой помощи.

В украинском сегменте TikTok стремительно набирает обороты опасный тренд: использование образов популярных телеведущих для создания фейкового контента. Благодаря технологиям искусственного интеллекта мошенники генерируют видео, где цифровые копии известных журналисток озвучивают сенсационные новости, призывают подписывать петиции или обещают денежные выплаты.

Как мошенники обманывают пользователей в соцсетях?

Анализ сотен видеороликов в социальных сетях выявил тревожную статистику: только выборка нескольких десятков примеров сгенерированного контента с лицами медийщиц собрала более 24 миллионов просмотров. Большое расследование издания Texty.org.ua показало, что под прицел чаще всего попадают такие узнаваемые лица, как Соломия Витвицкая, Алла Мазур и Анастасия Даугуле. Технологии позволяют не только наложить чужой голос на видеоряд, но и полностью смоделировать мимику и движения человека, создавая так называемые дипфейки, пишет 24 Канал.

Смотрите также Искусственный интеллект – новый Бог? Почему тысячи людей поверили в новую религию, поклоняются ИИ и чем это грозит

Злоумышленники делают ставку на психологию. Журналистки, которые годами работают в кадре, вызывают у зрителей стойкое чувство доверия и эмпатии. Этот авторитет цинично используется для пробивания информационных барьеров. Когда узнаваемая ведущая "сообщает" о социальных выплатах или политических изменениях, критическое мышление пользователя часто выключается.

Это не просто технологический эксперимент, считает издание, а форма цифрового и гендерного насилия, что бьет по репутации самих ведущих. Согласно данным ресурса "Женщины в медиа", на который ссылается Texty.org.ua, в процентном выражении женщины составляют большинство в медиаотрасли Украины.

Тематика таких подделок разнообразна, но всегда манипулятивная:

  • Почти половина выявленных видео содержит призывы поддержать петиции: от мобилизации правоохранителей до абсурдных политических рокировок.
  • Еще четверть контента – это классическое мошенничество, где обещают финансовую помощь от международных организаций или государства, чтобы выманить персональные данные доверчивых граждан.
  • Около 20% роликов транслируют откровенно враждебные нарративы, направленные на дестабилизацию ситуации в стране, дискредитацию военного руководства или распространение паники.

Среди других известных персон мошенники используют имена Натальи Островской, Ирины Прокофьевой, Марички Падалко, Натальи Мосейчук, Лилии Налягаки, Анастасии Мазур, Елены Морозовой, Юлии Бориско, Лидии Таран, Нели Шовкопляс, Оксаны Гутцайт и Валерии Ковалинской.

Как распознать подделку?

Техническое качество таких подделок постоянно растет, однако их все еще можно распознать по определенным маркерам.

  • Искусственный интеллект часто оставляет артефакты: неестественно гладкая кожа, странная артикуляция, рассинхронизация движений губ со звуком, "плавающие" конечности или предметы в кадре.
  • Голос, хоть и похож на оригинал, может звучать роботизировано, с неправильными ударениями и неестественным ритмом.
  • В фейковых видео ведущие часто не смотрят в камеру, а их глаза выглядят расфокусированными.

Проблема усугубляется алгоритмами самого TikTok, которые способствуют вирусному распространению эмоционального контента, независимо от его правдивости. Хотя платформа декларирует борьбу с дезинформацией, на практике модерация часто не успевает за темпами создания клонов.

Все это создает опасный прецедент, когда цифровая личность человека может жить своей жизнью, нанося вред реальному прототипу и обществу в целом.