За словами Ісроеля Мірського, керівника Дослідницької лабораторії наступального ШІ в Університеті Бен-Гуріона, ніхто не захищений, принаймні наразі, тому користувачам слід знати про вразливість, щоб мати змогу уникнути гірких наслідків.

А тим часом У США представили законопроєкт про 4-денний робочий тиждень, оскільки ШІ заміняє людей

Як це працює

Вразливість виникає внаслідок так званих "атак на побічні канали". Ці атаки не порушують брандмауери безпеки безпосередньо, а натомість отримують конфіденційну інформацію через метадані або іншими непрямими способами. Чат-боти зі штучним інтелектом через низькоякісні методи шифрування особливо вразливі до таких атак.

Річ у тім, що чат-боти використовують закодовані дані, які називаються "токенами", для обробки вхідних даних і швидкої генерації відповідей, забезпечуючи безперебійний потік розмови. Однак ці токени ненавмисно створюють побічний канал, який раніше був невідомий дослідникам.

Зловмисники можуть отримати доступ до цих даних у реальному часі та зробити висновки з підказок користувача, що становить значний ризик для конфіденційності.

Наслідки та реакція

Наслідки цього експлойту є серйозними, особливо для користувачів, які обговорюють делікатні теми. Microsoft, визнавши проблему, що впливає на її штучний інтелект Copilot, запевнила, що особисті дані, такі як імена, навряд чи можна передбачити, і пообіцяла випустити оновлення для усунення цієї вразливості.

Дивіться також ШІ Sora від OpenAI для перетворення тексту у відео стане загальнодоступним пізніше цього року

Що робити користувачу

У зв'язку з цими висновками, користувачам рекомендується бути обережними при взаємодії зі штучним інтелектом чат-ботів і уникати надання конфіденційної інформації, поки ці проблеми безпеки не будуть вирішені.