Мабуть, нам усім відомі випадки, коли люди переказували зловмисникам великі суми, почувши в слухавці голос родича, який нібито потрапив у халепу й потребує грошей. Підроблений голос шахраї також використовують для обходу систем безпеки з голосовою ідентифікацією. Не кажучи вже про появу в мережі фейкових роликів із політиками або знаменитостями, які вимовляють те, чого ніколи не говорили.
Дивіться також Microsoft прокачала Paint: редактор отримав функцію генератора зображень на базі ШІ
Як це працює
Для визначення голосів, підроблених за допомогою програм створення діпфейків, технології вже існують. Однак AntiFake – один з перших методів запобігання незаконному їх створенню та використанню. Суть методу в тому, щоб ускладнити системам ШІ зчитування ключових голосових характеристик із записів голосу.
Цей інструмент використовує метод ШІ, який спочатку був частиною інструментарію кіберзлочинців, але тепер ми застосовуємо його для захисту від них. Ми вносимо найдрібніші зміни в записаний аудіосигнал, спотворюємо або збурюємо його зовсім трохи, щоб на слух це було непомітно, але для ШІ це буде зовсім інший звук,
– розповів один із винахідників технології Чжан Нін з Університету штату Вашингтон у Сент-Луїсі.
Це означає, що навіть якщо ШІ зможе виконати підробку, звучати вона буде зовсім не так, як оригінал.
Хоча ми не знаємо, як розвиватиметься голосова технологія ШІ, не можна ігнорувати зростаючу небезпеку того, що шахраї вигадуватимуть все нові й нові способи їхнього використання. Тож нові інструменти та функції для запобігання зловживанням, а особливо обернення зброї противника проти нього самого, напрошуються вже зараз.