YouTube вирішив частково перекласти проблему низькоякісного AI-контенту на самих глядачів, запропонувавши їм оцінювати відео за ознакою "AI-сміття". На перший погляд, це виглядає як логічний крок, але на практиці система має серйозні недоліки. Про це пише Digital trends.

Дивіться також Перше відео в історії YouTube стало музейним експонатом в Лондоні

Чи можуть користувачі ефективно визначати AI-контент?

Головна проблема – люди загалом погано розпізнають контент, створений штучним інтелектом, і ця ситуація лише погіршується. Якщо раніше AI-ролики можна було легко впізнати за неприродними голосами чи спотвореними обличчями, то сучасні інструменти майже позбулися цих недоліків. Голоси звучать природно, обличчя виглядають переконливо, а типові "ознаки підробки" зникають.

Дослідження підтверджують цю тенденцію. У тестах на розпізнавання AI-облич люди показували результати, близькі до випадкових. При цьому їхня впевненість у власних здібностях була значно вищою за реальну точність. Аналогічні висновки зроблені і щодо deepfake-відео та синтетичних голосів – пересічні користувачі майже не відрізняють їх від справжніх.

Як пише ВВС, ситуацію ускладнює і те, що навіть системи самого YouTube не справляються з фільтрацією такого контенту. За даними дослідження Kapwing, приблизно 21% перших відео, які отримує новий користувач, можна віднести до AI-сміття. Інше розслідування показало, що понад 40% коротких відео для дітей містять низькоякісний AI-контент. Це означає, що автоматичні й ручні перевірки вже пропускають значну частину таких роликів.

Навіть якщо припустити, що користувачі зможуть допомогти, нова система відкриває можливості для зловживань. На платформі давно існують кампанії масових скарг і "дизлайк-атак". Тепер до цього додається інструмент, який дозволяє позначати відео як AI-сміття. Конкуренти, токсичні спільноти або організовані групи можуть використовувати його для атак на авторів незалежно від реального змісту роликів.

YouTube поки не пояснив, як саме перевірятиме такі оцінки і яку вагу вони матимуть. Це створює ризик маніпуляцій і може вдарити по авторам, які роками будували свою аудиторію.

Окреме питання – мотивація глядачів. Визначення AI-контенту потребує часу і певних знань, але платформа не пропонує нічого взамін. Фактично користувачі виконують роботу, яка покращує стрічку і дає YouTube додаткові дані, не отримуючи жодної вигоди.

Також існує ризик, що ці оцінки можуть використовуватися для навчання майбутніх AI-моделей. У такому випадку система, покликана боротися з AI-сміттям, може навпаки допомогти зробити його ще більш переконливим і складним для виявлення.

У підсумку новий підхід виглядає як спроба показати активність у боротьбі з проблемою, але не вирішити її. YouTube досі не забороняє публікацію AI-контенту, а вимоги до його маркування застосовуються лише в окремих випадках. Монетизація також обмежується незначно і залежить від тих самих систем перевірки, які вже дають збої.

Платформа фактично сама створила умови для поширення такого контенту, роками дозволяючи його публікацію і заробіток на ньому. Тепер, замість повноцінного рішення, вона перекладає частину відповідальності на користувачів, не пояснюючи, як саме використовуватиме їхні дані.