Вчені створили соцмережу, яка повністю складається з ШІ ботів і ось що з цього вийшло
- Вчені з Амстердамського університету змоделювали соцмережу з ШІ ботами, щоб вивчити можливості зменшення токсичності онлайн-платформ, але жодна з випробуваних стратегій не дала бажаного результату.
- Експеримент показав, що перехід на хронологічну стрічку новин та інші стратегії лише частково ефективні, а іноді навіть погіршують ситуацію, сприяючи поширенню екстремального контенту.
Науковці з Амстердамського університету змоделювали соціальну мережу, яку повністю населили ботами на основі штучного інтелекту. Метою було знайти спосіб зупинити перетворення онлайн-платформ на токсичні "ехо-камери". Однак жодне з випробуваних втручань не дало бажаного результату, а деякі навіть погіршили ситуацію, що ставить під сумнів можливість зробити соцмережі менш поляризованими.
В ході експерименту симульовану соцмережу дослідники "населили" віртуальними користувачами – ботами на базі мовної моделі GPT-4o від OpenAI, розповідає 24 Канал з посиланням на дані дослідження.
Дивіться також OpenAI запустила підписку на ChatGPT за 4 долари, тож тепер ми нарешті знаємо, що вона пропонує
У межах дослідження було перевірено кілька стратегій, які теоретично могли б зменшити токсичність:
- перехід на хронологічну стрічку новин,
- просування різних думок,
- приховування кількості підписників,
- видалення біографій акаунтів.
На жаль, жоден із методів не виявився достатньо ефективним. Деякі мали незначний позитивний ефект, тоді як інші, навпаки, погіршували ситуацію. Наприклад, хронологічна стрічка хоч і зменшувала нерівність уваги до дописів, але водночас виводила нагору екстремальний контент.
За словами дослідника Петера Торнберга, проблема не лише в окремих токсичних дописах. Про це він розповів у інтерв'ю виданню ArsTechnica. Такий контент формує саму структуру мережевих зв'язків, яка, своєю чергою, впливає на те, що бачать користувачі. Це створює замкнене коло, де невелика кількість дописів отримує левову частку уваги.
Дослідник висловив занепокоєння, що з розвитком генеративного ШІ ситуація може погіршитися. Зловмисники вже використовують штучний інтелект для створення контенту, що максимізує увагу, – часто поляризованого чи неправдивого. Торнберг сумнівається, що традиційні моделі соціальних мереж зможуть витримати такий натиск.
Як ШІ дискримінує людей?
Інше нещодавнє дослідження виявило, що великі мовні моделі демонструють значну упередженість на користь контенту, створеного іншим штучним інтелектом, а не людиною. Це явище назвали "антилюдською упередженістю".
На думку науковців така упередженість може призвести до системної дискримінації людей. Наприклад, при автоматичному відборі резюме, оцінці грантових заявок чи шкільних робіт, ШІ-асистенти можуть систематично віддавати перевагу контенту, створеному за допомогою ШІ.
Це може створити щось на кшталт "податку на вхід" для тих, хто не використовує або не може дозволити собі передові інструменти ШІ, що поглибить цифрову нерівність.