За словами Ісроеля Мірського, керівника Дослідницької лабораторії наступального ШІ в Університеті Бен-Гуріона, ніхто не захищений, принаймні наразі, тому користувачам слід знати про вразливість, щоб мати змогу уникнути гірких наслідків.
А тим часом У США представили законопроєкт про 4-денний робочий тиждень, оскільки ШІ заміняє людей
Як це працює
Вразливість виникає внаслідок так званих "атак на побічні канали". Ці атаки не порушують брандмауери безпеки безпосередньо, а натомість отримують конфіденційну інформацію через метадані або іншими непрямими способами. Чат-боти зі штучним інтелектом через низькоякісні методи шифрування особливо вразливі до таких атак.
Річ у тім, що чат-боти використовують закодовані дані, які називаються "токенами", для обробки вхідних даних і швидкої генерації відповідей, забезпечуючи безперебійний потік розмови. Однак ці токени ненавмисно створюють побічний канал, який раніше був невідомий дослідникам.
Зловмисники можуть отримати доступ до цих даних у реальному часі та зробити висновки з підказок користувача, що становить значний ризик для конфіденційності.
Наслідки та реакція
Наслідки цього експлойту є серйозними, особливо для користувачів, які обговорюють делікатні теми. Microsoft, визнавши проблему, що впливає на її штучний інтелект Copilot, запевнила, що особисті дані, такі як імена, навряд чи можна передбачити, і пообіцяла випустити оновлення для усунення цієї вразливості.
Дивіться також ШІ Sora від OpenAI для перетворення тексту у відео стане загальнодоступним пізніше цього року
Що робити користувачу
У зв'язку з цими висновками, користувачам рекомендується бути обережними при взаємодії зі штучним інтелектом чат-ботів і уникати надання конфіденційної інформації, поки ці проблеми безпеки не будуть вирішені.