Наверное, нам всем известны случаи, когда люди переводили злоумышленникам крупные суммы, услышав в трубке голос родственника, который якобы попал в беду и нуждается в деньгах. Поддельный голос мошенники также используют для обхода систем безопасности с голосовой идентификацией. Не говоря уже о появлении в сети фейковых роликов с политиками или знаменитостями, которые произносят то, чего никогда не говорили.

Смотрите также Microsoft прокачала Paint: редактор получил функцию генератора изображений на базе ИИ

Как это работает

Для определения голосов, поддельных с помощью программ создания дипфейков, технологии уже существуют. Однако AntiFake – один из первых методов предотвращения незаконного их создания и использования. Суть метода в том, чтобы затруднить системам ИИ считывание ключевых голосовых характеристик из записей голоса.

Этот инструмент использует метод ИИ, который изначально был частью инструментария киберпреступников, но теперь мы применяем его для защиты от них. Мы вносим мельчайшие изменения в записанный аудиосигнал, искажаем или возмущаем его совсем немного, чтобы на слух это было незаметно, но для ИИ это будет совсем другой звук,
– рассказал один из изобретателей технологии Чжан Нин из Университета штата Вашингтон в Сент-Луисе.

Это означает, что даже если ИИ сможет выполнить подделку, звучать она будет совсем не так, как оригинал.

Хотя мы не знаем, как будет развиваться голосовая технология ИИ, нельзя игнорировать растущую опасность того, что мошенники будут придумывать все новые и новые способы их использования. Поэтому новые инструменты и функции для предотвращения злоупотреблений, а особенно обращения оружия противника против него самого, напрашиваются уже сейчас.