Шахраї використовують імітацію голосу, щоб дурити людей: як це працює

12 березня 2023, 15:01
Читать новость на русском

Джерело:

The Washington Post

Розвиток штучного інтелекту відкриває не лише нові можливості, а й несе деякі загрози. Шахраї користуються технологіями, що копіюють інших людей, щоб увійти в довіру до їхніх друзів та родичів. Наприклад, копіювання голосу.

Одна з таких історій сталась у Канаді. 73-річна Рут Кард почула в телефоні голос онука, який сказав, що його затримала поліція і потрібні гроші для застави. Вона негайно пішла до банку.

Цікаво Жінки становлять 40% відвідувачів хакерських форумів, показує дослідження

Що сталося

Подружжя зняло 3 000 канадських доларів в одному банку й пішло до іншого за більшою сумою. Там пильний менеджер зупинив їх і попередив, що інший клієнт отримав схожий телефонний дзвінок, який звучав так, ніби це був голос близької людини — але виявилося, що голос був підроблений.

Не всім так пощастило. 39-річний Бенджамін Перкін розповів виданню The Washington Post, як його літніх батьків ошукали на тисячі доларів за допомогою штучного інтелекту.

  • Вони отримали телефонний дзвінок від адвоката, який стверджував, що їхній син убив американського дипломата в автокатастрофі й потребує грошей на судові витрати.
  • Потім удаваний адвокат начебто передав телефон Перкіну і голос звучав точно як його справжній.
  • Це їх переконало. Коли адвокат пізніше передзвонив і попросив 21 000 канадських доларів, батьки пішли в банк і відправили гроші.

Шахрайство з клонуванням голосу становить загрозу вже кілька років. Але стрімке поширення потужного та простого у використанні штучного інтелекту означає, що потенціал зловживань цією технологією легко випереджає реагування громадськості.

Ще два роки тому, навіть рік тому, для клонування голосу людини потрібно було багато аудіозаписів. Зараз якщо у вас є сторінка на Facebook або якщо ви записали TikTok і ваш голос є там протягом 30 секунд, люди можуть клонувати ваш голос,
– каже Хані Фарід, професор криміналістики в Каліфорнійському університеті в Берклі.

Наразі поліція не має способів боротьби з цією проблемою. Послуги клонування голосу дуже дешеві і розвиваються з часом. Тому проблема буде тільки поглиблюватись.