Укр Рус
20 августа, 17:32
2

Ученые создали соцсеть, которая полностью состоит из ИИ ботов и вот что из этого получилось

Основні тези
  • Ученые из Амстердамского университета смоделировали соцсеть с ИИ ботами, чтобы изучить возможности уменьшения токсичности онлайн-платформ, но ни одна из испытанных стратегий не дала желаемого результата.
  • Эксперимент показал, что переход на хронологическую ленту новостей и другие стратегии лишь частично эффективны, а иногда даже ухудшают ситуацию, способствуя распространению экстремального контента.

Ученые из Амстердамского университета смоделировали социальную сеть, которую полностью населили ботами на основе искусственного интеллекта. Целью было найти способ остановить превращение онлайн-платформ в токсичные "эхо-камеры". Однако ни одно из испытанных вмешательств не дало желаемого результата, а некоторые даже усугубили ситуацию, что ставит под сомнение возможность сделать соцсети менее поляризованными.

В ходе эксперимента симулированную соцсеть исследователи "населили" виртуальными пользователями – ботами на базе языковой модели GPT-4o от OpenAI, рассказывает 24 Канал со ссылкой на данные исследования.

Смотрите также OpenAI запустила подписку на ChatGPT за 4 доллара, и теперь мы наконец знаем, что она предлагает

В рамках исследования было проверено несколько стратегий, которые теоретически могли бы уменьшить токсичность:

  • переход на хронологическую ленту новостей,
  • продвижение различных мнений,
  • сокрытие количества подписчиков,
  • удаление биографий аккаунтов.

К сожалению, ни один из методов не оказался достаточно эффективным. Некоторые имели незначительный положительный эффект, тогда как другие, наоборот, ухудшали ситуацию. Например, хронологическая лента хоть и уменьшала неравенство внимания к сообщениям, но одновременно выводила наверх экстремальный контент.

По словам исследователя Петера Торнберга, проблема не только в отдельных токсичных сообщениях. Об этом он рассказал в интервью изданию ArsTechnica. Такой контент формирует саму структуру сетевых связей, которая, свою очередь, влияет на то, что видят пользователи. Это создает замкнутый круг, где небольшое количество сообщений получает львиную долю внимания.

Исследователь выразил беспокойство, что с развитием генеративного ИИ ситуация может ухудшиться. Злоумышленники уже используют искусственный интеллект для создания контента, максимизирующего внимание, – часто поляризованного или ложного. Торнберг сомневается, что традиционные модели социальных сетей смогут выдержать такой натиск.

Как ИИ дискриминирует людей?

Другое недавнее исследование показало, что большие языковые модели демонстрируют значительную предвзятость в пользу контента, созданного другим искусственным интеллектом, а не человеком. Это явление назвали "античеловеческой предвзятостью".

По мнению ученых такая предвзятость может привести к системной дискриминации людей. Например, при автоматическом отборе резюме, оценке грантовых заявок или школьных работ, ИИ-ассистенты могут систематически отдавать предпочтение контенту, созданному с помощью ИИ.

Это может создать что-то вроде "налога на вход" для тех, кто не использует или не может позволить себе передовые инструменты ИИ, что углубит цифровое неравенство.