О том, какие возможности и одновременно угрозы инновация несет во все сферы общественной жизни, узнавали журналисты 24 канала.
Читайте также GTA на улицах Японии: блогер впечатляюще воспроизводит видеоигры в реальной жизни – видео
Вирусные видео с Обамой и Цукербергом
В сети сенсацией стало видео, где якобы Барак Обама называет Дональда Трампа "придурком". Тем, мог ли бы такое сказать о политическом оппоненте Барак Обама, занималось чуть ли не все интернет-сообщество. Пока не оказалось, что вирусное видео – это фейк. Так же шокировали YouTube кадры, где якобы Марк Цукерберг называет себя вором.
"Один человек с абсолютным контролем над похищенными данными миллиардов людей, с их секретами, жизнью", – говорил якобы он.
Однако на самом деле бизнесмен тоже этого не говорил. Такой технологический тренд ученые уже прозвали "дипфейком". С помощью искусственного интеллекта картинку и аудиозапись одного человека можно подставить под материал с другим.
Как эту технологию восприняли в Украине
Обычным украинцам показали видео с искусственным интеллектом и наблюдали, смогут ли они с первого взгляда отличить так называемого техноклона от реального человека. Сначала верили почти все, однако впоследствии молодежь догадывалась, что это фейк, ведь видели вирусное видео.
Технология видео замены лиц базируется на специальной нейросети. В Украине эта функция доступна в упрощенном формате для обычных пользователей. IT-разработчики из Киева впервые в мире представили на рынке стартап мгновенной замены лица кого-либо из знаменитостей – Reface.
Интересно Android получил долгожданную функцию защиты автозаполнения
"Сегодня мы – единственная компания в мире, которая может сделать такую качественную замену лица на видео благодаря одному фото. Мы можем делать это в реальном времени. Ждать долго не нужно, нужно только 1 раз нажать, загрузить фото и уже через 10 секунд вы получите результат", – рассказал соучредитель RefaceAI Иван Алцибеев.
Чем это может быть опасно
Кроме шуток и пародий, в подобных технологий уже есть и первые жертвы. В мире из-за мошеннических подделок видео и аудиофайлов сейчас пострадало более 3 тысяч человек. В основном, так выманивают деньги от имени другого человека или создают компромат, за который просят выкуп. Однако украинские специалисты рассказали, что обычные пользователи в любительском приложении такого не создадут.
Мы решили пока ограничить доступ к этой технологии, то есть люди смогут загружать только файлы GIF, которыми трудно нанести кому-то вред,
– убеждал соучредитель RefaceAI Роман Могильный.
Однако разоблачить даже профессиональный фейк возможно благодаря независимой экспертизе. Адвокат Андрей Мазалов отметил, что у экспертов есть возможности использования определенных методик, которые позволяют сделать правдивые выводы.
ІТ-специалисты советуют не расслабляться, ведь сейчас на рынке есть все условия для появления программы еще более естественного моделирования человеческого поведения. Это означает, что создать мощный фейк вскоре станет еще легче.