Соцсети – место, где сталкиваются мнения, точки зрения, мировоззрение, а с недавних пор – люди и боты с искусственным интеллектом. Обычно мы обвиняем "прокрустово ложе" алгоритмов и рекомендаций в разжигании конфликтов. Однако недавнее исследование показало, что даже без алгоритмического вмешательства виртуальные "люди" ведут себя враждебно.
Нидерландские ученые из Университета Амстердама создали простую социальную платформу, где 500 чат-ботов (на базе GPT-4o mini) с различными политическими "персонажами" свободно переписывались друг с другом. В этой системе никаких таргетинговых алгоритмов или рекомендательных лент – только сами боты и их сообщения.
Результаты впечатляют. Даже без невидимой руки алгоритма чат-боты самостоятельно организовались в обособленные политические группы (эхо-камеры). Боты активнее всего подписывались и перепостили друг друга за схожие взгляды. Наиболее резкие и радикальные сообщения получали больше всего подписчиков и репостов. То есть контент сам отсортировался по уровню яркости – чем экстремальнее сообщение, тем больше внимания он получал от других ботов.
24 Канал рассказывает подробнее об эксперименте с чат-ботами и какое отношение это имеет к войне России против Украины.
К теме Как ИИ-чат-бот Grok разносит россиян, говорит "Слава Украине" и почему Турция его запретила
Эффект эхо-камер: что это значит
На первый взгляд, амстердамский эксперимент звучит довольно оторвано от реальности – боты с ИИ на основе ChatGPT, закрытая "соцсеть". Однако это прямое отражение того, что происходит на платформах вроде X, особенно в условиях войны России против Украины.
Исследователи запустили ботов в "одну комнату" и пытались лечить платформу простыми рецептами – хронологическая лента вместо персонализированной, сокрытие счетчиков фолловеров и репостов, приглушение вирального контента, даже усиление показа противоположных мнений.
Ни в одном случае изменения не были ощутимыми. Общий результат – менее 6% снижения "раскола", или поляризации. В одном из испытаний, где скрыли биографии пользователей, раскол между полюсами даже усилился, а экстремальные сообщения наоборот набрали еще больше огласки. Переход на чисто хронологическую ленту уменьшил неравномерность внимания ("баланс" между сообщениями), но и поднял крайнюю риторику на вершину ленты.
Боты организовывались в соответствии со своими настройками и сами себя сортировали в "эхо-камеры". В безалгоритмической среде боты уверенно разделились на политические лагеря и невольно воспроизвели худшее человеческое поведение онлайн.
Что такое эхо-камера
Эхо-камера – это явление в социальных сетях и онлайн-среде, когда пользователи взаимодействуют преимущественно с людьми или источниками, которые подтверждают их собственные убеждения. В таком замкнутом круге человек слышит в основном эхо собственных мыслей, усиленное единомышленниками, а альтернативные взгляды почти не проникают внутрь.
Последствия:
• усиление поляризации и радикализации позиций;
• создание иллюзии большинства, даже если мнение является маргинальным;
• снижение критического мышления, потому что информация воспринимается некритично из-за ее повторяемости.
В соцсетях такие "камеры" формируются благодаря алгоритмам рекомендаций и взаимному отсеиванию контента – мы видим прежде всего тех, кто похож на нас.
То есть проблема не только в алгоритмах – скорее в самих пользователях, в человеческой природе. Боты только выполняли закодированные в них модели поведения, скопированные с человеческого контента. По словам исследователей, они выполняли программы, играя сценарии, которые люди писали собственными сердитыми твитами и поляризованными обсуждениями в течение последних двух десятилетий. Даже без вмешательства алгоритма боты успешно создавали отдельные группы обсуждений, усиливали раскол и обращали внимание на крайне радикальные голоса, поскольку они просто воспроизводят тенденции, закодированные в человеческих данных.
В результате социальная сеть без алгоритмов оказалась такой, которая только усиливает человеческие худшие инстинкты. Такой себе цифровой боевой ринг, что добавляет драмы и шума к и так токсичному политическому пространству.
Боты и информационная война
Полученные нидерландскими учеными результаты показывают серьезные последствия ботов в реальном мире, особенно на фоне гибридной войны. В дискуссиях вокруг войны в Украине соцсети давно превратились в поле битвы с умами. Сетью распространяется множество враждебных нарративов, часто организованных именно через бот-аккаунты. Эмпирическое исследование EPJ Data Science подтверждает, что боты играют заметную роль в соцсетевой войне России против Украины.
Анализ более 20 миллионов твитов и 1 миллиона комментариев (темы Бучи, российская и украинская точки зрения) показал, что боты значительно активнее в Twitter (X) – тогда как живые люди больше комментируют в Reddit. При этом взаимодействие ботов и людей усиливает токсичность англоязычного сегмента. Фактически более 20% "пророссийских" пользователей в начале войны были ботами, которые распространяли фейки и пропаганду. Соцсети боты, как утверждают авторы исследования, отвечают за распространение дезинформации, фейковых новостей, теорий заговора и вводящих в заблуждение нарративов во время войны.
На практике это означает, что на цифровом фронте российская пропаганда использует бот-сети как оружие. Боты ретвитят и тиражируют эмоционально окрашенные месседжи, что только усиливает раскол в обществе. При этом они рассчитаны на максимальное вовлечение – эмоциональные, абсурдные и устрашающие посты собирают больше внимания людей. А если представить десятки тысяч таких ботов – эффект только возрастет.
К тому же современные технологии открывают новые риски. Различные LLM-чат-боты (например GPT или аналоги) склонны к случайным фабрикации информации. Анализ HKS Misinformation Review показал, что при запросах о российских дезинформационных нарративах о войне LLM-чат-боты в 25–44% случаев генерировали ложные утверждения (более четверти ответов не соответствовали критериям истины). Более того, эти боты часто непоследовательны – ответ на один и тот же вопрос может содержать четкое опровержение дезинформации, а может и нет.
Это означает, что генеративные боты могут непреднамеренно распространять фейки. Авторы делают вывод, что вариативность в ответе ИИ-ассистентов может ввести пользователей в заблуждение и усилить российские дезинформационные кампании. Иначе говоря, интеграция чат-ботов в сервисы поиска и соцсети создает дополнительную точку уязвимости – их собственные алгоритмы тоже могут становиться источником фейков и просто путаницы.
К теме "Звучит как безумие": как быстро ИИ отберет работу у миллионов людей и к чему готовиться
Эксперимент Амстердамского университета очень четко показывает, что токсичность и поляризация – это не только следствие алгоритмов соцсетей, но и естественное свойство любой сетевой динамики, даже среди искусственных агентов. Поэтому интеграция больших языковых моделей (LLM) в социальные платформы действительно может усиливать эти риски. Виртуальные "инфлюенсеры" с ИИ будут иметь способность не просто повторять радикальные месседжи, но и персонализировать их под каждого пользователя, что делает влияние еще более опасным,
– комментирует 24 Каналу Дмитрий Софина, соучредитель AI R&D Center WINSTARS.AI, член Комитета по развитию ИИ Минцифры.
"В контексте войны против Украины такие технологии могут быть использованы как оружие информационных операций (когнитивная война) – для усиления внутренних конфликтов, недоверия и усталости общества. Поэтому защита от бот-сетей должна включать не только технические средства (выявление ИИ-генерированного контента, аудит моделей), но и развитие критического мышления у пользователей и прозрачные стандарты для компаний, запускающих такие решения", – добавляет эксперт.
Во времена войны верить комментариям в соцсетях особенно опасно. Хотя соцсети обычно считают катализаторами фейков через свои алгоритмы, собственно ИИ способен генерировать массивы вводящих в заблуждение сообщений самостоятельно. Фактически компьютер может становиться автором пропагандистского контента. Опасность двойная: во-первых, боты уже сейчас транслируют существующие нарративы войны. Во-вторых, генеративные модели могут создавать новые варианты выдумок почти без ограничений. При таких условиях традиционные "заплатки" на алгоритмы (фактчекерские отметки) могут не выдержать нового уровня нагрузки.
Как реагировать: уроки для Украины
Приведенные исследования подчеркивают фундаментальную проблему – сама форма социальных платформ поощряет конфликт, а не полемику. И пусть пока решения в симуляции давали едва заметный эффект, можно сделать важные выводы.
- Во-первых, сам факт появления эхо-камер в эксперименте намекает, что борьба с поляризацией требует более радикальных преобразований, чем просто новая лента или анонимные лайки.
- Во-вторых, в украинском контексте стоит мобилизовать больше ресурсов на противодействие ботам. Например, ученые советуют платформам быть готовыми к бот-атакам и открывать доступ для исследователей и журналистов, чтобы те могли быстрее выявлять и маркировать манипулятивные сети.
Читайте также Сатанисты, секты и тайная война Трампа: как теории заговоров разъедают Америку изнутри
Украина сталкивается с информационной агрессией ежедневно. Платформы и их регуляторы должны осознать, что даже без алгоритмов соцсети – это "зеркало", что увеличивает и без того имеющиеся конфликты. Полагаясь только на самоконтроль пользователей или коррекцию ленты, мы, как показывают моделирования, не избавимся от враждебной пропаганды.
Можно ли создать "менее токсичную" социальную сеть? Это возможно, но только если дизайн системы с самого начала ориентирован не на максимизацию вовлеченности, а на здоровые коммуникации. Это означает внедрение этических принципов в тренировки моделей, независимый мониторинг их поведения и ответственность платформ за общественные последствия,
– говорит Дмитрий Софина.
По его словам, ИИ – инструмент, и именно от того, как мы его используем зависит, станет ли он катализатором сотрудничества или конфликта. "То есть с точки зрения коммерческой это вероятно не будет интересно основателями, так как негатив и токсичность порождает больше активностей в сети. А вот чисто технологически это конечно возможно, в т.ч. внедрив принцип децентрализации и обучаемого ИИ-гуру (который, как выше писал, тоже может ошибаться)", – добавляет специалист.
В конце концов результаты этих экспериментов – это предупреждение о катастрофе онлайн. Чтобы сдержать хаос в цифровых баталиях, необходим новый подход. Соцсети должны перестать быть безотказным оружием для манипуляторов. Как отмечают исследователи, может быть нужно переструктурировать сами механизмы взаимодействия в сетях – иначе даже самые либеральные настройки просто восстановят статус-кво поляризации в обществе. А пока полномасштабной "революции алгоритма" не произойдет, нам следует быть особенно бдительными: влияние бот-сетей (особенно с поддержкой ИИ) только усиливает влияние врага.

