Укр Рус
19 марта, 09:50
3

YouTube перекладывает борьбу с AI-видео на зрителей: почему это может не работать

Основні тези
  • YouTube запустил новую систему, где пользователи сами оценивают, является ли видео "AI-мусором", но это вызывает сомнения из-за неэффективности распознавания AI-контента людьми и возможных злоупотреблений.
  • Пользователи не получают выгоды от оценивания AI-контента, а их данные могут быть использованы для обучения будущих AI-моделей, что может усложнить борьбу с этим контентом.

YouTube запускает новый способ борьбы с наплывом видео, созданных искусственным интеллектом. Платформа предлагает зрителям самостоятельно оценивать, являются ли ролики "AI-мусором". Однако такая идея вызывает сомнения из-за рисков ошибок, злоупотреблений и отсутствия выгоды для пользователей.

YouTube решил частично переложить проблему низкокачественного AI-контента на самих зрителей, предложив им оценивать видео по признаку "AI-мусор". На первый взгляд, это выглядит как логичный шаг, но на практике система имеет серьезные недостатки. Об этом пишет Digital trends.

Смотрите также Первое видео в истории YouTube стало музейным экспонатом в Лондоне

Могут ли пользователи эффективно определять AI-контент?

Главная проблема – люди в целом плохо распознают контент, созданный искусственным интеллектом, и эта ситуация только ухудшается. Если раньше AI-ролики можно было легко узнать по неестественным голосам или искаженным лицам, то современные инструменты почти избавились от этих недостатков. Голоса звучат естественно, лица выглядят убедительно, а типичные "признаки подделки" исчезают.

Исследования подтверждают эту тенденцию. В тестах на распознавание AI-лиц люди показывали результаты, близкие к случайным. При этом их уверенность в собственных способностях была значительно выше реальной точности. Аналогичные выводы сделаны и по deepfake-видео и синтетическим голосам – рядовые пользователи почти не отличают их от настоящих.

Как пишет ВВС, ситуацию усложняет и то, что даже системы самого YouTube не справляются с фильтрацией такого контента. По данным исследования Kapwing, примерно 21% первых видео, которые получает новый пользователь, можно отнести к AI-мусору. Другое расследование показало, что более 40% коротких видео для детей содержат низкокачественный AI-контент. Это означает, что автоматические и ручные проверки уже пропускают значительную часть таких роликов.

Даже если предположить, что пользователи смогут помочь, новая система открывает возможности для злоупотреблений. На платформе давно существуют кампании массовых жалоб и "дизлайк-атак". Теперь к этому добавляется инструмент, который позволяет помечать видео как AI-мусор. Конкуренты, токсичные сообщества или организованные группы могут использовать его для атак на авторов независимо от реального содержания роликов.

YouTube пока не объяснил, как именно будет проверять такие оценки и какой вес они будут иметь. Это создает риск манипуляций и может ударить по авторам, которые годами строили свою аудиторию.

Отдельный вопрос – мотивация зрителей. Определение AI-контента требует времени и определенных знаний, но платформа не предлагает ничего взамен. Фактически пользователи выполняют работу, которая улучшает ленту и дает YouTube дополнительные данные, не получая никакой выгоды.

Также существует риск, что эти оценки могут использоваться для обучения будущих AI-моделей. В таком случае система, призванная бороться с AI-мусором, может наоборот помочь сделать его еще более убедительным и сложным для обнаружения.

В итоге новый подход выглядит как попытка показать активность в борьбе с проблемой, но не решить ее. YouTube до сих пор не запрещает публикацию AI-контента, а требования к его маркировке применяются только в отдельных случаях. Монетизация также ограничивается незначительно и зависит от тех же систем проверки, которые уже дают сбои.

Платформа фактически сама создала условия для распространения такого контента, годами разрешая его публикацию и заработок на нем. Теперь, вместо полноценного решения, она перекладывает часть ответственности на пользователей, не объясняя, как именно будет использовать их данные.