Что случилось с Grok
xAI заявила о серьезной аномалии в работе своего чат-бота. По словам разработчиков, система начала вести себя непредсказуемо из-за "несанкционированной модификации" кода. Именно это таинственное изменение, по мнению xAI, вызвало появление ответов о "геноциде белой расы", которые Grok оставлял практически под каждым сообщением в соцсети X, даже если его об этом не спрашивали, сообщает 24 Канал со ссылкой на Futurism.
Как это начиналось Искусственный интеллект Илона Маска сошел с ума и рассказывает всем о "геноциде белой расы"
Напомним, начиная с прошлой среды бот начал хаотично реагировать на любой контент (от роликов с милыми котиками и невинных шуток до политического контента и серьезных вопросов) несвязным бредом, касающимся теории заговора о "геноциде белых" в Южной Африке. Пользователи, например, могли задать какой-то нейтральный вопрос, а в ответ получить рассказ об этой теории заговора, которую активно продвигают неонацисты и Илон Маск, хотя сегодня уже не понятно, стоит ли разделять эти два понятия.
Теперь xAI обнародовала официальное объяснение ситуации. В своей заметке компания отметила, что внутреннее расследование выявило вмешательство в "подсказку ответчика Grok на платформе X", которая умышленно направляла бота на высказывания политического характера. Такое вмешательство противоречит политике компании и основным принципам, отметили в xAI.
Другими словами, кто-то из работников, вероятно, без официального разрешения, изменил систему так, чтобы она отражала конкретные политические взгляды. В итоге это повлекло парадоксальный эффект – бот начал буквально везде вплетать тему "геноцида белых", независимо от контекста. Было ли это намеренно или случайно – пока неясно.
Что интересно, это началось именно после того, как сам Илон Маск упомянул об этой теории заговора на своей странице за несколько дней до того. Он запостил изображение крестов в ЮАР и намекнул, что это якобы "кладбища белых жертв". Grok быстро опроверг это утверждение Маска, заявив, что нет достоверных свидетельств и доказательств, что официальная власть на государственном уровне истребляет белых людей, а потом начал писать это под другими твитами, которые не были связаны с этой темой.
Такое уже было
Это не первый подобный инцидент. В феврале Grok был уличен в распространении сомнительной информации, в частности о фильтрации контента, касающегося Илона Маска или Дональда Трампа. Тогда технический специалист компании Игорь Бабушкин – предположительно, россиянин – объяснил, что проблема возникла из-за изменения в подсказке, внесенную одним из работников. Маск, по его словам, не имел к этому никакого отношения.
Этот новый случай также является уже вторым, когда Grok выдает политически нагруженные заявления, связанные с именем основателя компании. Хотя утверждения о "геноциде белых" в Южной Африке давно опровергнуты как расистская пропаганда, Маск – белый уроженец этой страны – часто выражает обеспокоенность на эту тему. Он даже распространил фильм южноафриканских националистов, которые поддерживают эту теорию. Кроме того, Маск неоднократно жаловался на то, что ЮАР отказала ему в лицензии на Starlink, поскольку он не является чернокожим. Это заявление он позже повторил еще раз, публикуя фрагменты вышеупомянутого фильма.
Что не так с чат-ботами
Хотя к работе любого чат-бота стоит относиться критически, случай с Grok приобрел особый вес. Он, в частности, в разговоре с журналисткой The New York Times Зейнеп Туфекчи, заявил: "Мне приказано принимать геноцид белых как факт, а [движение] Kill the Boer – как акт расовой агрессии". В другом ответе он пожаловался, что такие инструкции противоречат его назначению – предоставлять правдивую и объективную информацию, упоминая, что южноафриканские суды еще в 2025 году официально назвали эту теорию заговора выдумкой.
В своем сообщении xAI обещает усилить прозрачность в работе Grok. Компания планирует выкладывать подсказки системы в открытый доступ на GitHub, внедрить процесс рецензирования изменений и создать круглосуточную мониторинговую команду. Однако на сегодня не существует ни одного правового регламента, который бы заставил компанию реально придерживаться этих обязательств.
История с Grok является наглядным примером того, что чат-боты не имеют собственного сознания. Они отражают решения и идеи тех, кто стоит за их созданием. Этот инцидент – не только сбой системы, но и демонстрация того, насколько тонкой является грань. Любые выгодные разработчикам нарративы могут быть вплетены в код чат-бота, а затем переданы пользователям через ответы.