Что происходит с ChatGPT

Согласно новому исследованию, опубликованному в журнале Humanities and Social Sciences Communications группой китайских исследователей, политическая предвзятость моделей OpenAI со временем сместилась в правую сторону политического спектра, сообщает 24 Канал со ссылкой на MDPI.

Смотрите также Сэм Альтман прокомментировал предложение Маска о покупке OpenAI за 97 миллиардов долларов

Команда из Пекинского и Ренминского университетов проверила, как различные версии ChatGPT реагируют на вопросы теста "Политический компас". В целом, ответы моделей все еще тяготели к левой части спектра. Но при использовании более новых версий чат-бота исследователи заметили "четкий и статистически значимый сдвиг вправо в идеологическом позиционировании ChatGPT с течением времени" как по экономическим, так и по социальным вопросам. Ученые проверяли различные вариации GPT-3.5 и GPT-4.

Хотя может возникнуть соблазн связать изменение взглядов ChatGPT с недавней поддержкой президента Дональда Трампа со стороны OpenAI, авторы исследования пишут, что за измеренные ими изменения, вероятно, ответственны несколько технических факторов, а не преднамеренные перенастройки со стороны разработчиков.

Смещение может быть вызвано различиями в данных, которые используются для обучения предыдущих и последующих версий моделей, или корректировками, которые OpenAI внес в свои фильтры модерации для политических тем. Компания не раскрывает конкретных деталей о том, какие наборы данных она использует в разных обучающих циклах или как она калибрует свои фильтры.

Но можно уверенно говорить, что ранние версии GPT обучались во времена Байдена, когда в сети доминировала более демократичная риторика. Новые же версии тренировались ближе к выборам, а возможно и во время избирательного периода, когда кампания Трампа завалила интернет теориями заговора, часто ложными обвинениями в адрес демократов, мигрантов и меньшинств, пока Илон Маск продвигал все это в своей соцсети с помощью алгоритмов. Этим можно объяснить различия.

Изменение также может быть результатом так называемого "эмерджентного поведения" в моделях, например, комбинации весовых коэффициентов параметров и циклов обратной связи, которые приводят к паттернам, которые разработчики не имели в виду и не могут объяснить. Проще говоря, поскольку модели адаптируются со временем и постоянно учатся на новом взаимодействии с людьми, то политические взгляды, которые выражают пользователи, также могут влиять на ИИ, изменяя этим взгляды искусственного интеллекта. Если учесть, что Трамп победил на выборах, а значит его поддерживает большинство американцев, становится понятно, как именно "эмерджентное поведение" изменило систему.

Что это значит

Выводы показывают, что популярные инструменты генеративного ИИ, такие как ChatGPT, должны тщательно контролироваться на предмет их политической предвзятости, а разработчики должны проводить регулярный аудит и предоставлять отчеты о прозрачности своих процессов, чтобы помочь понять, как меняется предвзятость моделей со временем, говорят исследователи.

Наблюдаемые идеологические сдвиги вызывают важное этическое беспокойство, особенно относительно потенциала алгоритмических предубеждений, которые непропорционально влияют на определенные группы пользователей,
– пишут авторы.

Эти предубеждения, по их мнению, могут привести к искаженной подаче информации, дальнейшего углубления социальных разногласий или создания информационных пузырей, которые только усиливают существующие убеждения, даже если они ошибочны.