Технології deepfake незабаром будуть доступні всім користувачам: що це та які ризики принесе

Технології deepfake незабаром будуть доступні всім користувачам
Технології deepfake незабаром будуть доступні всім користувачам / Фото з вільних джерел

Нейронні мережі швидко навчилися змінювати обличчя на відео без монтажу та тривалої обробки. Експерт в галузі deepfake-технологій відзначив, що зовсім скоро відео із підміною облич на високому рівні зможе робити будь-хто охочий.

Доцент інформаційних технологій Південно-Каліфорнійського університету і засновник компанії Pinscreen Хао Лі розповів про відеофейки в ефірі каналу CNBC.

Читайте також: Роботів-тварин зробили більш реалістичними: відео

Під час бесіди він зазначив, що наразі підробку часто можна розпізнати навіть неозброєним оком і поки створити реалістичні deepfake вкрай складно. Але вже протягом півроку-року це зміниться.

Якщо докласти чималих зусиль, навіть сьогодні можна змонтувати вкрай реалістичне відео. Питання в тому, як зробити технології deepfake доступними для звичайних користувачів. Я б сказав, що до цього моменту залишилося всього півроку або рік,
– заявив експерт.

Що таке deepfake? Це методика синтезу зображення людини, яка базується на штучному інтелекті. Вона використовується для поєднання і накладення існуючих зображень та відео на вихідні зображення або відеоролики.

Deepfake може бути використаний для створення фальшивих порнографічних відео із зірками або порно для помсти. Deepfake-порнографія з'явилася в Інтернеті в 2017 році, зокрема на Reddit, і була заборонена сайтами, включаючи Reddit, Twitter і Pornhub. Окрім того deepfake можуть бути використані для створення підроблених новин і зловмисних обманів.

Перспективи використання технології. Хао Лі заявив, що подібний спосіб відеомонтажу збираються використовувати виключно в додатках для спілкування у віртуальній реальності, а також в розважальних цілях. У приклад він привів китайську мобільну програму Zao, в якій накласти своє обличчя можна тільки на уривки з популярних фільмів і серіалів.


Приклад використання deepfake

Ризики. На питання про негативні наслідки поширення deepfake, експерт відповів, що нейромережа зможе розпізнати сфабриковані записи, якщо сама навчиться робити їх на тому ж рівні. Він також додав, що не збирається викладати свої напрацювання у відкритий доступ, але не виключає, що ентузіасти самостійно створять аналогічні технології.

Більше новин, що стосуються подій зі світу технологій, ґаджетів, штучного інтелекту, а також космосу читайте у розділі Техно

powered by lun.ua
Якщо Ви виявили помилку на цій сторінці, виділіть її та натисніть Ctrl+Enter
Коментарі
Залиште відгук