По словам Исроеля Мирского, руководителя Исследовательской лаборатории наступательного ИИ в Университете Бен-Гуриона, никто не защищен, по крайней мере пока, поэтому пользователям следует знать об уязвимости, чтобы иметь возможность избежать горьких последствий.

А тем временем В США представили законопроект о 4-дневной рабочей неделе, поскольку ИИ заменяет людей

Как это работает

Уязвимость возникает в результате так называемых "атак на побочные каналы". Эти атаки не нарушают брандмауэры безопасности непосредственно, а вместо этого получают конфиденциальную информацию через метаданные или другими косвенными способами. Чат-боты с искусственным интеллектом из-за низкокачественных методов шифрования особенно уязвимы к таким атакам.

Дело в том, что чат-боты используют закодированные данные, которые называются "токенами", для обработки входных данных и быстрой генерации ответов, обеспечивая бесперебойный поток разговора. Однако эти токены непреднамеренно создают побочный канал, который ранее был неизвестен исследователям.

Злоумышленники могут получить доступ к этим данным в реальном времени и сделать выводы из подсказок пользователя, что представляет значительный риск для конфиденциальности.

Последствия и реакция

Последствия этого эксплойта являются серьезными, особенно для пользователей, которые обсуждают деликатные темы. Microsoft, признав проблему, влияющую на ее искусственный интеллект Copilot, заверила, что личные данные, такие как имена, вряд ли можно предсказать, и пообещала выпустить обновление для устранения этой уязвимости.

Смотрите также ИИ Sora от OpenAI для преобразования текста в видео станет общедоступным позже в этом году

Что делать пользователю

В связи с этими выводами, пользователям рекомендуется быть осторожными при взаимодействии с искусственным интеллектом чат-ботов и избегать предоставления конфиденциальной информации, пока эти проблемы безопасности не будут решены.