Недавний инцидент в Калифорнии ярко продемонстрировал, насколько наглыми могут быть попытки использовать цифровые инструменты для манипуляции правосудием, и заставил судью принять беспрецедентные меры для реагирования, пишет 24 Канал со ссылкой на Futurism.

Смотрите также Новый ИИ сканирует лицо, чтобы подсказать компаниям, стоит ли нанимать вас на работу

Как ИИ подделал доказательства?

История, всколыхнувшая юридическое сообщество, развернулась вокруг жилищного спора. Истцы решили подкрепить свою позицию видеозаписью, которая должна была служить свидетельством очевидца. Однако вместо живого свидетеля суд увидел нечто крайне странное: на экране появилась женщина с размытым лицом, мимика которой выглядела очень неестественно. Ее движения ограничивались лишь хаотичным шевелением губ и редким морганием, тогда как остальное выражение лица оставалось статичным. Более того, видео содержало резкие монтажные переходы, после которого движения персонажа циклически повторялись.

Посмотреть абсолютно несомненный ИИ-фейк можно по этой ссылке можно по этой ссылке.

Для судьи Виктории Колаковски происхождение этого материала было очевидным – это был низкокачественный дипфейк. Реакция суда была мгновенной и строгой: 9 сентября дело было закрыто именно из-за попытки использования сгенерированных показаний.

Однако истцы не сдались и подали ходатайство о пересмотре решения, аргументируя это тем, что суд якобы не доказал факт использования искусственного интеллекта при создании видео. Эта дерзкая попытка также потерпела неудачу – в ноябре судья окончательно отклонила их требования.

Большие последствия

Этот случай стал тревожным сигналом для всей системы, а также, как отмечает NBC News, одним из первых примеров, когда подозреваемый дипфейк был представлен как якобы настоящее доказательство в суде и обнаружен.

Судья Колаковски впоследствии заявила, что юридическая профессия только начинает осознавать масштабы угрозы. Выход таких мощных инструментов, как Sora 2 от OpenAI, показал, что создание фальшивых видеодоказательств больше не требует глубоких технических знаний. Теперь любой со смартфоном может сгенерировать видео, на котором человек якобы совершает преступление, например, кражу в магазине. Технология находится на ранней стадии развития, но ее влияние уже ощутимо.

К счастью, в этом случае истцы были настолько опрометчивыми и непрофессиональными, что даже не подумали сделать свое видео реалистичным. Ролик также содержит сгенерированный голос, который продолжает звучать без перебоев, когда сам видеоряд периодически обрывается и начинается заново.