22 апреля, 12:30
2

Скандал вокруг Anthropic – секретную AI-модель могли взломать

Основні тези
  • Anthropic расследует возможный несанкционированный доступ к своей AI-модели Claude Mythos через сторонние сервисы.
  • Группа получила доступ к Claude Mythos, используя утечки данных и доступ через подрядчика, но уверяет, что не намерена использовать модель с вредом.

Anthropic проверяет информацию о возможном несанкционированном доступе к своей самой закрытой AI-модели Claude Mythos. По данным источников, неизвестная группа могла получить к ней доступ через сторонние сервисы.

Компания Anthropic подтвердила, что расследует сообщения о возможной утечке доступа к модели Claude Mythos, которую ранее считали слишком опасной для публичного релиза. Речь идет о версии Preview, что, по словам представителей компании, могла быть доступна через инфраструктуру стороннего подрядчика. Об этом пишет Gizmodo.

Смотрите также В Google создали "ударную команду" из-за успехов Claude

Как посторонние получили доступ к закрытой модели?

Об инциденте сообщило Bloomberg, которое, по собственным данным, проверило утечку через демонстрацию работы модели и скриншоты, полученные от участника неизвестной группы. Источник утверждает, что имеет доступ к Claude Mythos благодаря своей работе в подрядчика Anthropic.

По описанию ситуации, группа действовала в несколько этапов. Сначала участники использовали боты в Discord для поиска информации о еще неанонсированных AI-моделях на GitHub. Далее они воспользовались утечкой данных из стартапа Mercor, занимающегося обучением искусственного интеллекта.

Как пишет Heise, соединив эти данные с доступом, который имел один из участников из-за работы с подрядчиком Anthropic, группа смогла определить, где именно размещена Claude Mythos. После этого они якобы получили возможность взаимодействовать с моделью и начали тестировать ее еще с 7 апреля – в день анонса проекта Project Glasswing.

Несмотря на потенциальную серьезность инцидента, источник уверяет, что группа не намерена использовать модель с вредом. По их словам, участники только экспериментируют с возможностями новой системы и проводят неформальные тесты.

Впрочем, ситуация вызывает вопросы о безопасности. Если модель, которую сама Anthropic позиционирует как чрезвычайно рискованную, уже могла оказаться в посторонних руках, это подрывает доверие к механизмам контроля над подобными технологиями.

Связанные темы: