Пользователи чаще всего подделывают порноролики: интересная статистика
Нейросети научились очень правдоподобно подделывать фото и даже видео. Специалисты представили отчет, в котором говорится, что большинство видео, которые подделывают с помощью алгоритмов – порноролики.
Чаще всего deepfake используют, чтобы скомпрометировать публичного человека или свести счеты с бывшими, а также для шантажа.
Читайте также: Технологии deepfake вскоре будут доступны всем пользователям: что это и какие риски принесет
Что такое deepfake?Это методика синтеза изображения человека, которая базируется на искусственном интеллекте. Она используется для совмещения и наложения существующих изображений и видео на исходные изображения или видеоролики.
Deepfake может быть использован для создания фальшивых порнографических видео со звездами или порно для мести. Deepfake-порнография появилась в Интернете в 2017 году, в частности на Reddit, и была запрещена сайтами, включая Reddit, Twitter и Pornhub. Кроме того deepfake могут быть использованы для создания поддельных новостей и злонамеренных обманов.
В недавнем отчете говорится, что около 96% deepfake – это фальшивые порноролики, в которых лица порноактеров меняют на другие. На "официальных" сайтах с deepfake на видео в 100% случаев фигурируют женщины. А вот в видео, которые попадают на YouTube статистика несколько иная: 61% – мужчины и лишь 39% – женщины.
Больше всего deepfake контента поступает от жителей Соединенных Штатов (41%), за ними разместилась Южная Корея (25%), Великобритания (12%), Канада (6%), Индия (3%) и другие страны (13%). Что касается размещения deepfake на YouTube, то лидером здесь остаются США (73%).
Статистика публикаций deepfake
Всего эксперты проанализировали более 14 678 deepfake. По словам специалистов, с прошлого года они наблюдают бум фейкового порно, созданного с помощью нейросетей.
Больше новостей, касающихся событий из мира технологий, гаджетов, искусственного интеллекта, а также космоса читайте в разделе Техно