Резкий рост генеративного искусственного интеллекта за последние два года породил не только новые инструменты, но и новые явления. Соцсети забиты сгенерированными нейросетями изображениями: то гибридное существо с креветочным хвостом и ликом Иисуса, то маленькая девочка со щенком, которая якобы пережила наводнение. Такие картинки иногда кажутся фантастическими, иногда – правдоподобными, но объединяет их одно: низкое качество и безразличие к фактической точности.

В англоязычном сообществе для этого даже возник термин AI slop – помои искусственного интеллекта. Это не только про картинки, сюда включают и видео, аудио и текст, созданные быстро и дешево благодаря нейросетям. Технологии сделали это быстрым, легким и дешевым. Авторы slop-контента работают на экономику внимания: они засоряют каналы, чтобы захватить взгляды и рекламные доллары, вытесняя качественный контент.

24 Канал пообщался с экспертом в сфере искусственного интеллекта Дмитрием Софиной и рассказывает подробнее о проблеме ИИ-слопа.

К теме Папа Римский в Balenciaga и Иисус-креветка: как ИИ превращает соцсети в зомби-интернет

Если в 2023-м такое производство выглядело курьезом, то сегодня оно превращается в проблему. Аналитики The Guardian этим летом проанализировали самые быстрорастущие каналы на YouTube и обнаружили, что девять из первых ста базируются исключительно на ИИ-помойке: от зомби-футбола до мыльной оперы о котах.

Подобный подход проникает в музыку: на стримингах появляются целые группы, которых на самом деле не существует: один из таких "коллективов" под названием The Velvet Sundown предлагает искусственные песни с вымышленной биографией. Существует также якобы украинско-литовская группа Transportna, которую также подозревают в использовании ИИ, а ее визуалы точно созданы генераторами изображений.


Скриншот с YouTube Transportna

Количество ИИ-контента растет с каждым годом. Писательские площадки, которые платят за рассказы, вынужденно закрывают прием произведений. В частности популярный журнал Clarkesworld перестал принимать новые тексты из-за шквала генеративных "шедевров".

Даже Wikipedia вынуждена бороться с потоками автосгенерированных статей, которые растягивают ресурсы волонтерского сообщества.

Слоп присутствует и в Украине – от сферы рекламы, медиа до даже ТЦК. Например, сгенерированные ИИ изображения можно увидеть в рекламе и иллюстрациях к медиа, которые собрал 24 Канал:

Интересный случай произошел со страницей Полтавского областного ТЦК и СП. В соцсети X публиковали скриншот сообщения в Facebook этого ТЦК со сгенерированной сказкой и иллюстрациями.


Скриншот сообщения Полтавского областного ТЦК и СП с X

Упоминания об этом сообщении еще есть в Google, однако перейти по ссылке невозможно.

Стоит вспомнить и откровенно коммерческие проекты по созданию ИИ-слопа. Летом 2025 года OpenAI анонсировала вторую версию своего инструмента Sora (видео на основе текста) и параллельно прорабатывает отдельное приложение, которое, по данным журналистов, напоминает TikTok.

Он будет предлагать бесконечную ленту коротких роликов, созданных исключительно искусственным интеллектом. Пользователям запретят загружать собственные видео, но позволят "вдохновлять" алгоритм своим изображением и помечать друзей – фактически речь идет о легализованном генераторе дипфейков на стероидах. По данным Wired, тестеры внутри компании восприняли идею с энтузиазмом настолько большим, что менеджеры шутили о возможной потере производительности.

Читайте также Минцифры готовит к запуску собственный ИИ: для чего он Украине, будет ли безопасен во время войны и когда заработает

OpenAI не единственная. Meta в конце августа представила приложение Vibes – ленту коротких видео, созданных ее нейросетью, интегрированную в фирменный помощник Meta AI. Запуск почти единогласно высмеяли – обозреватели назвали сервис "чистым мусором". Параллельно Google интегрирует свою модель Veo 3 в YouTube Shorts, а конкуренты спешно готовят собственные аналоги. Гонки в ИИ-слопе от технокомпаний приводят к лавинообразному выбросу контента, но вопрос остается: нужен ли он пользователям?

Такие платформы станут идеальной средой для дезинформации и нежелательных дипфейков. TikTok уже пришлось изменить правила, запретив содержать материалы, которые могут нанести значительный вред, и отдельно отметив ИИ-генерированный контент. Политика сервиса признает, что даже с пометками обработанные видео могут оставаться опасными. Кроме этого, адвокаты художников напоминают о постоянных нарушениях авторского права, которые уже привели к высокопрофильным судебным искам. Очевидно, что в эпоху, когда каждый может натренировать нейросеть на чужих работах, риски для авторов и правообладателей будут только расти.

Параллельно с потребительским контентом появился еще один нежелательный побочный продукт – workslop. Это термин, который исследователи BetterUp Labs и Stanford Social Media Lab предложили для обозначения сгенерированного ИИ рабочего контента, маскирующегося под качественный, но на самом деле не являющегося таковым.

В отличие от очевидных мемов, "рабочие помои" гораздо более коварные, ведь часто выглядят презентабельно: чистые таблицы, аккуратно отформатированные отчеты или красноречивые резюме. Однако за фасадом скрывается недостаток глубины и точности.

Дмитрий Софина

Член Комитета по развитию ИИ Минцифры, гендиректор и соучредитель R&D Center Winstars.AI

Феномен workslop – когда ИИ-инструменты генерируют никакой контент, выглядящий приемлемым, но не имеющий ценности, – действительно становится вызовом. Для украинских бизнесов эта проблема тоже актуальна: ИИ может ускорять работу, но, если его использовать бездумно, результатом будет шаблонный текст или дизайн, который не помогает бизнесу, а создает иллюзию работы.

На страницах Harvard Business Review исследователи отметили, что workslop может объяснять, почему 95% организаций, внедрявших генеративные инструменты, не увидели никакой отдачи от этих инноваций. Контент, который генерирует машина, может быть неполным, бесполезным или лишенным важного контекста, что просто создает больше работы для коллег. Хуже всего то, что нагрузка перекладывается вниз по цепи: получатель вынужден перерабатывать, исправлять или дописывать текст, который сгенерировал искусственный интеллект.

Чтобы понять масштаб проблемы, BetterUp Labs и Стэнфордская лаборатория социальных медиа опросили 1150 офисных работников в США. Сорок процентов респондентов признались, что получали workslop в течение последнего месяца.

К теме Превосходит человеческий: что за сверхчеловеческий искусственный интеллект от Google и OpenAI и почему является угрозой

Журнал Information Age уточняет, что чаще всего это "творчество" пересылают коллеги на одном звене, но почти в 20% случаев – менеджеры. В среднем сотрудники тратят почти два часа, чтобы разобраться с каждым таким кейсом. С учетом заявленных зарплат это составляет около 186 долларов на человека ежемесячно; для компании с десятью тысячами работников это означает 9 миллионов долларов потерянной производительности в год.

Но потери измеряются не только деньгами. Отношения в коллективах также портятся. Половина опрошенных признает, что раздражена, когда получает workslop, а более 20% – что чувствуют обиду. Еще тревожнее то, что отправителей такого контента воспринимают как менее креативных, менее способных и менее надежных. Более трети считает таких коллег менее умными, 42% – менее доверчивыми. Исследователи предупреждают: если ничего не изменить, этот тренд может подорвать ключевые элементы сотрудничества, необходимые для успешной интеграции ИИ в работу.

Откуда взялся этот вал низкокачественного контента? Причины разные. Во-первых, сама экономика внимания мотивирует авторов лить все больше ИИ-слопа, ведь за просмотры платят. Даже недостаток качества компенсируют яркий заголовок и пестрящая от контента лента. Во-вторых, многие воспринимают нейросети как волшебную палочку, которая автоматически улучшит производительность. Но на практике оказывается, что без человеческого вклада продукты ChatGPT или подобных языковых моделей часто выглядят красиво, но не работают.

Опрос BetterUp показал, что 40% работников уверены: коллега отдал им AI-сгенерированный отчет, чтобы просто перебросить работу. Подтверждают это и данные MIT Media Lab: в 95% пилотных проектов использование AI не дало измеримой экономии или прироста прибыли.

Дмитрий Софина

Член Комитета по развитию ИИ Минцифры, гендиректор и соучредитель R&D Center Winstars.AI

Важно объяснять работникам, что ИИ – это инструмент для усиления креативности и эффективности, а не замена критического мышления или экспертизы. Основной недостаток workslop в том, что компания тратит ресурсы на контент, который не отличает ее от конкурентов и не дает добавленной стоимости клиентам. Задача руководителей – научить команды применять ИИ так, чтобы он не снижал планку, а помогал делать продукт качественнее.

Технические специалисты также отмечают, что использование код-ассистентов вроде GitHub Copilot часто увеличивает количество багов. Исследование компании Uplevel показало, что программисты с доступом к Copilot имели ошибки в коде на 41% чаще, чем те, кто писал самостоятельно, пишет Business Insider. А дизайнеры и копирайтеры тратят время, чтобы довести до ума генеративные картинки или тексты, которые выглядят, как велосипед, а не как заказанный клиентом Mercedes.

Исследователи BetterUp предлагают работодателям моделировать вдумчивое использование AI и устанавливать четкие правила относительно приемлемой практики. Это означает: не полагаться на нейросеть для выполнения всей работы, а привлекать ее как инструмент для рутинных задач, после чего обязательно проверять и редактировать результаты. На уровне организации следует определять, в каких процессах ИИ может быть полезным, а где нужна исключительно человеческая экспертиза.


Картинка, распространенная во время урагана "Хелен"

Для потребителей медиа и пользователей соцсетей важно научиться распознавать слоп. Это могут быть неправдоподобные физические детали, забавные подписи или несогласованные фонари на изображении. Во время настоящих чрезвычайных ситуаций, например во время урагана "Хелен" в США, в сети могут циркулировать сфальсифицированные картинки со слезными сюжетами, которые манипулируют эмоциями и политическими взглядами. Соцсети позволяют обозначать и жаловаться на подозрительный контент, а некоторые внедряют инструменты для проверки фактов.

Генеративные модели открывают огромные возможности для творчества, образования и бизнеса. Они могут ускорить перевод, создание черновиков, помочь со сценариями или анализом. Однако их массовая доступность породила также поток мусора, который угрожает как информационному пространству, так и рабочим процессам. AI slop – это не обязательно технологическая проблема; часто это человеческая лень, желание получить лайки или переложить свой труд на кого-то другого. Workslop – его офисный двойник – приводит к потерям и уничтожает доверие внутри команд.