Фейковые песни, вымышленные новости, книги и фильмы: как ИИ-мусор заполоняет соцсети и угрожает культуре
- Резкий рост генеративного ИИ создает засилье низкокачественного контента, известного как AI slop, что влияет на качество информации в соцсетях и медиа.
- Феномен workslop, который возникает из-за использования ИИ для создания рабочего контента, приводит к потерям производительности и напряжению в коллективах из-за низкого качества материалов.
Резкий рост генеративного искусственного интеллекта за последние два года породил не только новые инструменты, но и новые явления. Соцсети забиты сгенерированными нейросетями изображениями: то гибридное существо с креветочным хвостом и ликом Иисуса, то маленькая девочка со щенком, которая якобы пережила наводнение. Такие картинки иногда кажутся фантастическими, иногда – правдоподобными, но объединяет их одно: низкое качество и безразличие к фактической точности.
В англоязычном сообществе для этого даже возник термин AI slop – помои искусственного интеллекта. Это не только про картинки, сюда включают и видео, аудио и текст, созданные быстро и дешево благодаря нейросетям. Технологии сделали это быстрым, легким и дешевым. Авторы slop-контента работают на экономику внимания: они засоряют каналы, чтобы захватить взгляды и рекламные доллары, вытесняя качественный контент.
24 Канал пообщался с экспертом в сфере искусственного интеллекта Дмитрием Софиной и рассказывает подробнее о проблеме ИИ-слопа.
К теме Папа Римский в Balenciaga и Иисус-креветка: как ИИ превращает соцсети в зомби-интернет
Что такое ИИ-слоп?
Если в 2023-м такое производство выглядело курьезом, то сегодня оно превращается в проблему. Аналитики The Guardian этим летом проанализировали самые быстрорастущие каналы на YouTube и обнаружили, что девять из первых ста базируются исключительно на ИИ-помойке: от зомби-футбола до мыльной оперы о котах.
Подобный подход проникает в музыку: на стримингах появляются целые группы, которых на самом деле не существует: один из таких "коллективов" под названием The Velvet Sundown предлагает искусственные песни с вымышленной биографией. Существует также якобы украинско-литовская группа Transportna, которую также подозревают в использовании ИИ, а ее визуалы точно созданы генераторами изображений.
Скриншот с YouTube Transportna
Количество ИИ-контента растет с каждым годом. Писательские площадки, которые платят за рассказы, вынужденно закрывают прием произведений. В частности популярный журнал Clarkesworld перестал принимать новые тексты из-за шквала генеративных "шедевров".
Даже Wikipedia вынуждена бороться с потоками автосгенерированных статей, которые растягивают ресурсы волонтерского сообщества.
Слоп присутствует и в Украине – от сферы рекламы, медиа до даже ТЦК. Например, сгенерированные ИИ изображения можно увидеть в рекламе и иллюстрациях к медиа, которые собрал 24 Канал:
Интересный случай произошел со страницей Полтавского областного ТЦК и СП. В соцсети X публиковали скриншот сообщения в Facebook этого ТЦК со сгенерированной сказкой и иллюстрациями.
Скриншот сообщения Полтавского областного ТЦК и СП с X
Упоминания об этом сообщении еще есть в Google, однако перейти по ссылке невозможно.
Видеосервисы будущего: от Sora до Vibes
Стоит вспомнить и откровенно коммерческие проекты по созданию ИИ-слопа. Летом 2025 года OpenAI анонсировала вторую версию своего инструмента Sora (видео на основе текста) и параллельно прорабатывает отдельное приложение, которое, по данным журналистов, напоминает TikTok.
Он будет предлагать бесконечную ленту коротких роликов, созданных исключительно искусственным интеллектом. Пользователям запретят загружать собственные видео, но позволят "вдохновлять" алгоритм своим изображением и помечать друзей – фактически речь идет о легализованном генераторе дипфейков на стероидах. По данным Wired, тестеры внутри компании восприняли идею с энтузиазмом настолько большим, что менеджеры шутили о возможной потере производительности.
Читайте также Минцифры готовит к запуску собственный ИИ: для чего он Украине, будет ли безопасен во время войны и когда заработает
OpenAI не единственная. Meta в конце августа представила приложение Vibes – ленту коротких видео, созданных ее нейросетью, интегрированную в фирменный помощник Meta AI. Запуск почти единогласно высмеяли – обозреватели назвали сервис "чистым мусором". Параллельно Google интегрирует свою модель Veo 3 в YouTube Shorts, а конкуренты спешно готовят собственные аналоги. Гонки в ИИ-слопе от технокомпаний приводят к лавинообразному выбросу контента, но вопрос остается: нужен ли он пользователям?
Такие платформы станут идеальной средой для дезинформации и нежелательных дипфейков. TikTok уже пришлось изменить правила, запретив содержать материалы, которые могут нанести значительный вред, и отдельно отметив ИИ-генерированный контент. Политика сервиса признает, что даже с пометками обработанные видео могут оставаться опасными. Кроме этого, адвокаты художников напоминают о постоянных нарушениях авторского права, которые уже привели к высокопрофильным судебным искам. Очевидно, что в эпоху, когда каждый может натренировать нейросеть на чужих работах, риски для авторов и правообладателей будут только расти.
С любительской ленты – в офис: феномен workslop
Параллельно с потребительским контентом появился еще один нежелательный побочный продукт – workslop. Это термин, который исследователи BetterUp Labs и Stanford Social Media Lab предложили для обозначения сгенерированного ИИ рабочего контента, маскирующегося под качественный, но на самом деле не являющегося таковым.
В отличие от очевидных мемов, "рабочие помои" гораздо более коварные, ведь часто выглядят презентабельно: чистые таблицы, аккуратно отформатированные отчеты или красноречивые резюме. Однако за фасадом скрывается недостаток глубины и точности.
Феномен workslop – когда ИИ-инструменты генерируют никакой контент, выглядящий приемлемым, но не имеющий ценности, – действительно становится вызовом. Для украинских бизнесов эта проблема тоже актуальна: ИИ может ускорять работу, но, если его использовать бездумно, результатом будет шаблонный текст или дизайн, который не помогает бизнесу, а создает иллюзию работы.
На страницах Harvard Business Review исследователи отметили, что workslop может объяснять, почему 95% организаций, внедрявших генеративные инструменты, не увидели никакой отдачи от этих инноваций. Контент, который генерирует машина, может быть неполным, бесполезным или лишенным важного контекста, что просто создает больше работы для коллег. Хуже всего то, что нагрузка перекладывается вниз по цепи: получатель вынужден перерабатывать, исправлять или дописывать текст, который сгенерировал искусственный интеллект.
Чтобы понять масштаб проблемы, BetterUp Labs и Стэнфордская лаборатория социальных медиа опросили 1150 офисных работников в США. Сорок процентов респондентов признались, что получали workslop в течение последнего месяца.
Журнал Information Age уточняет, что чаще всего это "творчество" пересылают коллеги на одном звене, но почти в 20% случаев – менеджеры. В среднем сотрудники тратят почти два часа, чтобы разобраться с каждым таким кейсом. С учетом заявленных зарплат это составляет около 186 долларов на человека ежемесячно; для компании с десятью тысячами работников это означает 9 миллионов долларов потерянной производительности в год.
Но потери измеряются не только деньгами. Отношения в коллективах также портятся. Половина опрошенных признает, что раздражена, когда получает workslop, а более 20% – что чувствуют обиду. Еще тревожнее то, что отправителей такого контента воспринимают как менее креативных, менее способных и менее надежных. Более трети считает таких коллег менее умными, 42% – менее доверчивыми. Исследователи предупреждают: если ничего не изменить, этот тренд может подорвать ключевые элементы сотрудничества, необходимые для успешной интеграции ИИ в работу.
Почему распространяется ИИ-контент и как с этим бороться?
Откуда взялся этот вал низкокачественного контента? Причины разные. Во-первых, сама экономика внимания мотивирует авторов лить все больше ИИ-слопа, ведь за просмотры платят. Даже недостаток качества компенсируют яркий заголовок и пестрящая от контента лента. Во-вторых, многие воспринимают нейросети как волшебную палочку, которая автоматически улучшит производительность. Но на практике оказывается, что без человеческого вклада продукты ChatGPT или подобных языковых моделей часто выглядят красиво, но не работают.
Опрос BetterUp показал, что 40% работников уверены: коллега отдал им AI-сгенерированный отчет, чтобы просто перебросить работу. Подтверждают это и данные MIT Media Lab: в 95% пилотных проектов использование AI не дало измеримой экономии или прироста прибыли.
Важно объяснять работникам, что ИИ – это инструмент для усиления креативности и эффективности, а не замена критического мышления или экспертизы. Основной недостаток workslop в том, что компания тратит ресурсы на контент, который не отличает ее от конкурентов и не дает добавленной стоимости клиентам. Задача руководителей – научить команды применять ИИ так, чтобы он не снижал планку, а помогал делать продукт качественнее.
Технические специалисты также отмечают, что использование код-ассистентов вроде GitHub Copilot часто увеличивает количество багов. Исследование компании Uplevel показало, что программисты с доступом к Copilot имели ошибки в коде на 41% чаще, чем те, кто писал самостоятельно, пишет Business Insider. А дизайнеры и копирайтеры тратят время, чтобы довести до ума генеративные картинки или тексты, которые выглядят, как велосипед, а не как заказанный клиентом Mercedes.
Исследователи BetterUp предлагают работодателям моделировать вдумчивое использование AI и устанавливать четкие правила относительно приемлемой практики. Это означает: не полагаться на нейросеть для выполнения всей работы, а привлекать ее как инструмент для рутинных задач, после чего обязательно проверять и редактировать результаты. На уровне организации следует определять, в каких процессах ИИ может быть полезным, а где нужна исключительно человеческая экспертиза.
Картинка, распространенная во время урагана "Хелен"
Для потребителей медиа и пользователей соцсетей важно научиться распознавать слоп. Это могут быть неправдоподобные физические детали, забавные подписи или несогласованные фонари на изображении. Во время настоящих чрезвычайных ситуаций, например во время урагана "Хелен" в США, в сети могут циркулировать сфальсифицированные картинки со слезными сюжетами, которые манипулируют эмоциями и политическими взглядами. Соцсети позволяют обозначать и жаловаться на подозрительный контент, а некоторые внедряют инструменты для проверки фактов.
Генеративные модели открывают огромные возможности для творчества, образования и бизнеса. Они могут ускорить перевод, создание черновиков, помочь со сценариями или анализом. Однако их массовая доступность породила также поток мусора, который угрожает как информационному пространству, так и рабочим процессам. AI slop – это не обязательно технологическая проблема; часто это человеческая лень, желание получить лайки или переложить свой труд на кого-то другого. Workslop – его офисный двойник – приводит к потерям и уничтожает доверие внутри команд.
Частые вопросы
Что такое AI slop и почему он появился?
Термин AI slop появился в англоязычном сообществе для описания низкокачественного контента, сгенерированного искусственным интеллектом, включая изображения, видео, аудио и текст. Такой контент создается быстро и дешево, засоряет каналы и вытесняет качественный контент для привлечения внимания и получения рекламных доходов.
Как AI slop влияет на различные отрасли, например музыку или видео?
AI slop проникает в различные отрасли, создавая сгенерированные искусственным интеллектом музыкальные группы с вымышленными биографиями и видеоконтент на платформах, таких как YouTube. Это приводит к засорению информационного пространства и повышает риски дезинформации и дипфейков.
Какие проблемы возникают из-за распространения workslop в рабочей среде?
Workslop — это термин для сгенерированного ИИ рабочего контента, который может выглядеть презентабельно, но не имеет глубины и точности. Это приводит к потерям производительности, затратам ресурсов и ухудшению отношений в коллективах, поскольку коллеги вынуждены переделывать или исправлять такой контент.
Какие угрозы несет распространение ИИ-контента для общества и бизнеса?
Распространение ИИ-контента несет угрозы дезинформации, нежелательных дипфейков и нарушений авторских прав. В бизнесе это может приводить к потерям производительности из-за генерации низкокачественного контента, который требует дополнительной работы со стороны сотрудников. Для общества это означает засорение информационного пространства, что затрудняет распознавание правдивой информации и подрывает доверие к медиа и организациям.
Как эффективно использовать ИИ и избежать проблем с workslop?
Компании могут моделировать вдумчивое использование ИИ и устанавливать четкие правила относительно приемлемой практики. Это означает, что не следует полагаться на нейросеть для выполнения всей работы, а привлекать ее как инструмент для рутинных задач, после чего обязательно проверять и редактировать результаты. На уровне организации следует определять, в каких процессах ИИ может быть полезным, а где нужна исключительно человеческая экспертиза. Также важно научить команды применять ИИ так, чтобы он не снижал планку, а помогал делать продукт более качественным.