Мошенники используют имитацию голоса, чтобы обманывать людей: как это работает

12 марта 2023, 15:01
Читати новину українською

Источник:

The Washington Post

Развитие искусственного интеллекта открывает не только новые возможности, но и несет некоторые угрозы. Мошенники пользуются технологиями, копирующими других людей, чтобы войти в доверие к их друзьям и родственникам. К примеру, копирование голоса.

Одна из таких историй произошла в Канаде. 73-летняя Рут Кард услышала в телефоне голос внука, который сказал, что его задержала полиция и нужны деньги для залога. Она немедленно пошла в банк.

Интересно Женщины составляют 40% посетителей хакерских форумов

Что произошло

Супруги сняли 3 000 канадских долларов в одном банке и пошли в другой за большей суммой. Там бдительный менеджер остановил их и предупредил, что другой клиент получил схожий телефонный звонок, который звучал так, словно это был голос близкого человека, но оказалось, что голос был подделан.

Не всем так повезло. 39-летний Бенджамин Перкин рассказал изданию The Washington Post, как его пожилых родителей обманули на тысячи долларов с помощью искусственного интеллекта.

  • Они получили телефонный звонок от адвоката, утверждавшего, что их сын убил американского дипломата в автокатастрофе и нуждается в деньгах на судебные издержки.
  • Затем якобы адвокат передал телефон "Перкину" и голос звучал точно как его настоящий.
  • Это их убедило. Когда адвокат позже перезвонил и попросил 21 000 канадских долларов, родители ушли в банк и отправили деньги.

Мошенничество с клонированием голоса представляет угрозу уже несколько лет. Но стремительное распространение мощного и простого в использовании искусственного интеллекта означает, что потенциал злоупотреблений этой технологией легко опережает реагирование общественности.

Еще два года назад, даже год назад, для клонирования голоса человека требовалось много аудиозаписей. Сейчас если у вас есть страница на Facebook или если вы записали TikTok и ваш голос есть там в течение 30 секунд, люди могут клонировать ваш голос,
– говорит Хани Фарид, профессор криминалистики в Калифорнийском университете в Беркли.

Пока у полиции нет способов борьбы с этой проблемой. Услуги клонирования голоса очень дешевы и развиваются с течением времени. Поэтому проблема будет только усугубляться.