Эксперты из AI Incident Database пришли к выводу, что дипфейковое мошенничество вышло на промышленный уровень. По их данным, инструменты для создания персонализированных афер, в частности видео с фальшивыми образами известных журналистов или президента Кипра, больше не являются сложными или дорогими в использовании. Об этом пишет The Guardian.
Смотрите также Новые технологии на работе влияют на мотивацию работников совсем не так, как мы думали
Почему дипфейковые аферы стали такими распространенными?
В исследовании зафиксировали более десятка недавних случаев так называемой "имитации ради прибыли". Среди них – дипфейковое видео премьера Западной Австралии Роберта Кука, который якобы рекламировал инвестиционную схему, а также фальшивые врачи, продвигавшие косметические средства для кожи.
Исследователи отмечают, что мошенники все чаще используют общедоступные AI-инструменты для точечных атак. Масштабы проблемы иллюстрирует случай в Сингапуре, где финансовый сотрудник международной компании в прошлом году перевел почти $500 тыс. злоумышленникам во время видеозвонка, который он считал разговором с руководством. В Великобритании потребители, по оценкам, потеряли 9,4 млрд фунтов стерлингов из-за мошенничества за девять месяцев до ноября 2025 года.
По словам исследователя MIT Саймона Майлиуса, возможности искусственного интеллекта достигли уровня, когда фейковый контент может создавать почти любой. Он отмечает, что мошенничество, манипуляции и целевые аферы составляли наибольшую долю инцидентов в базе данных в течение 11 из последних 12 месяцев, а порог входа фактически исчез.
Исследователь Гарвардского университета Фред Гайдинг, который изучает AI-мошенничество, отмечает, что ситуация будет только ухудшаться. По его словам, технологии стали настолько дешевыми и быстрыми, что их распространение опережает ожидания экспертов.
Как пишет Tech Digest, показателен случай с Джейсоном Ребгольцем, генеральным директором компании по AI-безопасности Evoke. После публикации вакансии в LinkedIn с ним связался человек, который порекомендовал кандидата. Переписка выглядела убедительно, резюме было качественным, хотя и со странными деталями. Во время видеособеседования появились серьезные подозрения: изображение выглядело искусственно, фон был неестественным, а контуры лица постоянно искажались.
После разговора Ребгольц передал запись специалистам по выявлению дипфейков, которые подтвердили, что видео было сгенерировано искусственным интеллектом. Кандидата отклонили, но цель мошенника так и осталась непонятной – от попытки получить работу до доступа к конфиденциальным данным.
По мнению экспертов, худшее еще впереди. Технологии клонирования голоса уже позволяют легко имитировать родственников или знакомых во время телефонных звонков, тогда как видеодипфейки продолжают совершенствоваться. Это может иметь серьезные последствия для процессов найма, выборов и общего уровня доверия к цифровым институтам.


