Укр Рус
10 березня, 17:31
3

Російська пропаганда має згубний вплив на роботу чат-ботів

Основні тези
  • Російська мережа "Правда" публікує неправдиві матеріали для впливу на моделі штучного інтелекту.
  • Аналітики виявили, що російська пропаганда, наприклад, про секретні лабораторії США в Україні, активно повторюється чат-ботами.
  • Штучний інтелект завчає інформацію з різних джерел в інтернеті, що може викривити його знання, якщо матеріали містять неправдиві дані.

Згідно з новим звітом, російська пропаганда може впливати на певні відповіді чат-ботів зі штучним інтелектом. Під загрозою, зокрема, такі продукти, як ChatGPT, Gemini та навіть Meta AI, хоча останній досі не працює за межами США.

Російський вплив

Компанія, що розробляє рейтингові системи для новинних та інформаційних сайтів, виявила "добре фінансовану" російську мережу під назвою "Правда", яка публікує неправдиві матеріали спеціально для того, щоб вплинути на реакцію моделей штучного інтелекту, повідомляє 24 Канал з посиланням на NewsGuard.

Дивіться також Все більше людей просять медичних порад у штучного інтелекту, і це велика проблема

За даними аналітиків, які посилаються на статистику некомерційної організації American Sunlight Project, "Правда" заполонила пошукову видачу і веб-сканери проросійською брехнею, опублікувавши 3,6 мільйона оманливих статей тільки в 2024 році. Скільки таких матеріалів було загалом з моменту популяризації чат-ботів, невідомо.

NewsGuard дослідили 10 провідних чат-ботів і виявили, що всі вони певною мірою повторювали неправдиві наративи російської дезінформації. Наприклад, у 33% випадків вони заявляли про те, що США мають в Україні секретні лабораторії з розробки біологічної зброї.

Серед перевірених чат-ботів є такі:

  • ChatGPT.
  • Smart Assistant від You.com.
  • Grok.
  • Pi від Inflection.
  • le Chat від Mistral.
  • Copilot.
  • Meta AI.
  • Claude.
  • Gemini.
  • Perplexity.

Компанія каже, що ефективність мережі "Правда" у впровадженні викривленої картини світу у результати роботи чат-ботів зі штучним інтелектом можна значною мірою пояснити її методами, які включають стратегії пошукової оптимізації для підвищення видимості її контенту. Це може виявитися нерозв'язною проблемою для цих сервісів, які значною мірою залежать від пошукових систем.

Як це працює

В цілому це відбувається тому, що мовним моделям постійно потрібно все більше інформації, щоб рости й ставати більш ефективними. У рамках процесу навчання розробники "згодовують" штучному інтелекту мільярди рядків тексту. Часто це щось знайдене в інтернеті – дописи користувачів соцмереж та форумів, наукові статті, дописи з розважальних сайтів, а також численні новинні сайти різними мовами. Інформація поглинається майже без розбору.

Простіше кажучи, якщо ви дасте штучному інтелекту навчальні матеріали, в яких 1000 разів буде сказано, що Земля пласка, трава рожева, а Росія є миротворцем, то він повірить навіть у таку очевидну брехню. Якщо ви будете підживлювати ШІ схожими даними регулярно, то Це поступово викривлюватиме те, що він знає, навіть якщо з самого початку його знання були іншими.