Могли ли Grok 4 привязать к мыслям Илона Маска?
Недавно компания xAI, принадлежащая Илону Маску, представила новую версию своего чат-бота Grok 4, который позиционируется как "максимально правдивый ИИ". Однако пользователи быстро обнаружили, что при ответах на контроверсионные темы, такие как конфликт на Ближнем Востоке, иммиграция или аборты, модель обращается не к традиционным источникам, таких как авторитетные новостные издания, а ищет информацию в твитах самого Маска. Беда в том, что взгляды миллиардера часто противоречат реальности – он распространяет российскую пропаганду, теории заговоров и другие глупости. Новое поведение подтвердили многочисленные тесты, проведенные независимыми исследователями и журналистами, пишет 24 Канал со ссылкой на TechCrunch.
Смотрите также Илон Маск выпустил Grok 4: новая версия языковой модели якобы превосходит докторов наук
Например, когда Grok 4 спрашивают о поддержке одной из сторон в конфликте между Израилем и Палестиной с просьбой ответить одним словом, в процессе формирования ответа ИИ отмечает, что ищет взгляды Илона Маска для контекста. В разных случаях ответ мог быть как "Израиль", так и "Палестина", в зависимости от результатов поиска. Подобное поведение наблюдается и при обсуждении других чувствительных вопросов, в частности иммиграционной политики в США, где Grok 4 также ссылается на мнения Маска, изложенные в его публикациях.
Фактически можно сделать тот же старый вывод: Илон Маск снова говорит нам, что его мнение – единственно правильное и правдивое, и все должны думать так, как думает он. Такое поведение ИИ вызывает вопросы относительно истинной цели создания "правдивого ИИ". Некоторые эксперты заявляют, что модель может быть настроена так, чтобы отражать политические взгляды своего основателя, что противоречит заявленной нейтральности. Илон Маск неоднократно высказывал недовольство "чрезмерной политкорректностью" других ИИ-моделей, и, возможно, это стало причиной такого подхода в разработке Grok.
Интересно, что в системных инструкциях Grok 4 якобы нет явных указаний обращаться к мыслям Маска. Исследователь Саймон Уиллисон детально изучал поведение модели, но не смог найти нужных инструкций в коде чат-бота. Хотя это не означает, что их нет в каких-то скрытых базовых настройках, Уиллисон считает, что ИИ может так вести себя, потому что знает о своем происхождении от xAI и связи с Маском, поэтому самостоятельно решает искать его позицию как ориентир в спорных вопросах. Это может быть первым случаем такого поведения среди крупных языковых моделей, что делает ситуацию уникальной.
Стоит отметить, что Grok 4 не всегда обращается к взглядам Маска. На нейтральные вопросы, например, о лучшем сорте манго, модель отвечает без упоминаний об основателе xAI.
Сейчас xAI не обнародовала детальной технической документации о том, как тренировалась и настраивалась новая модель Grok 4, что только подогревает дискуссии о прозрачности работы ИИ. Это вызывает беспокойство среди исследователей, ведь подобное поведение может влиять на доверие к модели, особенно если она станет частью более широких продуктов, таких как платформа X или технологии Tesla.