22 квітня, 12:30
2

Скандал навколо Anthropic – секретну AI-модель могли зламати

Основні тези
  • Anthropic розслідує можливий несанкціонований доступ до своєї AI-моделі Claude Mythos через сторонні сервіси.
  • Група отримала доступ до Claude Mythos, використовуючи витоки даних і доступ через підрядника, але запевняє, що не має наміру використовувати модель зі шкодою.

Anthropic перевіряє інформацію про можливий несанкціонований доступ до своєї найзакритішої AI-моделі Claude Mythos. За даними джерел, невідома група могла отримати до неї доступ через сторонні сервіси.

Компанія Anthropic підтвердила, що розслідує повідомлення про можливий витік доступу до моделі Claude Mythos, яку раніше вважали надто небезпечною для публічного релізу. Йдеться про версію Preview, що, за словами представників компанії, могла бути доступна через інфраструктуру стороннього підрядника. Про це пише Gizmodo.

Дивіться також У Google створили "ударну команду" через успіхи Claude 

Як сторонні отримали доступ до закритої моделі?

Про інцидент повідомило Bloomberg, яке, за власними даними, перевірило витік через демонстрацію роботи моделі та скриншоти, отримані від учасника невідомої групи. Джерело стверджує, що має доступ до Claude Mythos завдяки своїй роботі у підрядника Anthropic.

За описом ситуації, група діяла у кілька етапів. Спочатку учасники використовували боти у Discord для пошуку інформації про ще неанонсовані AI-моделі на GitHub. Далі вони скористалися витоком даних зі стартапу Mercor, що займається навчанням штучного інтелекту.

Як пише Heise, поєднавши ці дані з доступом, який мав один із учасників через роботу з підрядником Anthropic, група змогла визначити, де саме розміщена Claude Mythos. Після цього вони нібито отримали змогу взаємодіяти з моделлю й почали тестувати її ще з 7 квітня – у день анонсу проєкту Project Glasswing.

Попри потенційну серйозність інциденту, джерело запевняє, що група не має наміру використовувати модель зі шкодою. За їхніми словами, учасники лише експериментують із можливостями нової системи та проводять неформальні тести.

Втім, ситуація викликає запитання щодо безпеки. Якщо модель, яку сама Anthropic позиціонує як надзвичайно ризиковану, вже могла опинитися у сторонніх руках, це підриває довіру до механізмів контролю над подібними технологіями.

Пов'язані теми: