Компанія Anthropic підтвердила, що розслідує повідомлення про можливий витік доступу до моделі Claude Mythos, яку раніше вважали надто небезпечною для публічного релізу. Йдеться про версію Preview, що, за словами представників компанії, могла бути доступна через інфраструктуру стороннього підрядника. Про це пише Gizmodo.
Дивіться також У Google створили "ударну команду" через успіхи Claude
Як сторонні отримали доступ до закритої моделі?
Про інцидент повідомило Bloomberg, яке, за власними даними, перевірило витік через демонстрацію роботи моделі та скриншоти, отримані від учасника невідомої групи. Джерело стверджує, що має доступ до Claude Mythos завдяки своїй роботі у підрядника Anthropic.
За описом ситуації, група діяла у кілька етапів. Спочатку учасники використовували боти у Discord для пошуку інформації про ще неанонсовані AI-моделі на GitHub. Далі вони скористалися витоком даних зі стартапу Mercor, що займається навчанням штучного інтелекту.
Як пише Heise, поєднавши ці дані з доступом, який мав один із учасників через роботу з підрядником Anthropic, група змогла визначити, де саме розміщена Claude Mythos. Після цього вони нібито отримали змогу взаємодіяти з моделлю й почали тестувати її ще з 7 квітня – у день анонсу проєкту Project Glasswing.
Попри потенційну серйозність інциденту, джерело запевняє, що група не має наміру використовувати модель зі шкодою. За їхніми словами, учасники лише експериментують із можливостями нової системи та проводять неформальні тести.
Втім, ситуація викликає запитання щодо безпеки. Якщо модель, яку сама Anthropic позиціонує як надзвичайно ризиковану, вже могла опинитися у сторонніх руках, це підриває довіру до механізмів контролю над подібними технологіями.


