Вся эта ситуация еще раз показывает, насколько далеко продвинулась технология подделки лица. Мошенники, вероятно, использовали общедоступные видеозаписи для создания фальшивых аватаров собеседников, в которых никто не распознал подделку.

Смотрите также Подросток из города Ривердейл столкнулся с новым мошенничеством, которое полиция назвала "киберпохищением"

Детали

Как пишет источник, мошенники совершили несколько видеозвонков. Предположительно, в кадре все время был только один человек, которому искусственный интеллект менял внешность. Другие люди в кадре, как предполагают, были полностью цифровыми и дорисовывались программой. Правоохранители говорят, что такого еще никогда не видели. Обычно подделывают только одного человека.

Эту операцию начали готовить в середине января, отправив гонконгскому филиалу фишинговое сообщение якобы от главного офиса компании. Что было в этом сообщении, не раскрывают. Но можно предположить, что это был какой-то анонс видеоконференции или сообщение о необходимости проведения секретного денежного перевода.

Словом, сотрудника финансового отдела обманом заставили поверить в необходимость осуществления транзакции. Несмотря на первые сомнения, сотрудник принял участие в групповой видеоконференции, в которой участвовали поддельные версии финансового директора компании, а также другие сотрудники, которые выглядели и говорили, как их реальные коллеги.

В этот раз во время видеоконференции с несколькими людьми оказалось, что все, кого вы видите, ненастоящие. Они использовали технологию глубокой подделки, чтобы имитировать голоса своих целей,
– рассказал старший суперинтендант Чан Шун-Чин в интервью SCMP.

По словам Чана, жертвами мошенников стали три сотрудника. Еще один также участвовал в организованной видеоконференции. Все они говорят, что люди в кадре "выглядели настоящими". Поэтому в итоге они сделали перевод в размере 200 миллионов гонконгских долларов.

Технология Deepfake существует уже не первый год. Мы видели многочисленные видео звезд, которые говорят то, чего никогда не говорили, Барака Обаму, который выбивает двери ногой, Илона Маска, который рекламирует криптовалюты, и прочее. Но такие подделки всегда были на достаточно низком уровне. До того момента, когда в игру вступил современный искусственный интеллект. Он позволяет повысить реализм сгенерированной картинки настолько, что результат буквально невозможно отличить от оригинала. Для некоторых нейросетей достаточно лишь несколько секунд видео или аудио, чтобы начать имитировать внешность и голос человека. На прошлой неделе неизвестные начали массово распространять поддельные порнографические изображения певицы Тейлор Свифт, подняв настоящий переполох в СМИ и соцсетях.