Умеет ли ИИ придумывать сложные пароли?
Последние исследования показывают, что ответ на этот вопрос – "нет". Существует серьезная проблема с паролями, которые генерируют большие языковые модели вроде Claude, GPT и Gemini. Несмотря на внешнюю сложность, такие пароли имеют критически низкую энтропию и повторяются с неестественной регулярностью, пишет 24 Канал.
Смотрите также Тысячи людей установили фейковые расширения в Chrome и теряют данные: проверьте, или вы среди них
Проблема кроется в самой природе больших языковых моделей. Они не генерируют случайные последовательности – они предусматривают следующий токен на основе учебных данных. То есть фактически ставят следующее слово с учетом того, какое слово стояло следующим в предварительно изученных текстах. Поэтому вместо настоящей случайности получается лишь ее имитация с выраженными статистическими предубеждениями.
Безопасный пароль требует криптографически устойчивого генератора псевдослучайных чисел, которого у языковых моделей просто нет. Хотя инструменты вроде KeePass или библиотека zxcvbn с открытым исходным кодом от Dropbox оценивают такие пароли как надежные (около 100 бит энтропии) реальный анализ показывает совсем другое: подобные пароли взламываются от нескольких секунд до нескольких часов.
Один из примеров можно увидеть у компании Irregular. Ее исследователи просили разные модели сгенерировать пароль 50 раз в разных сессиях.
- Claude Opus 4.6 выдал только 30 уникальных строк, а строка "G7$kL9#mQ2&xP4!w" повторилась 18 раз – то есть с вероятностью 36%. Для действительно случайной последовательности эта цифра должна была бы быть близкой к нулю. Характерные закономерности: большинство паролей начинается с большой буквы G или с маленькой k, за которой следует цифра 7, а любимые символы искусственного интеллекта – L, 9, m, 2, $, #. При этом символы вроде * почти никогда не встречаются.
- GPT-5.2 и Gemini 3 Flash демонстрируют аналогичные паттерны – например, частые префиксы "vQ7!" или "K#7".
- Еще острее эта проблема встает в контексте ИИ-агентов. Такие инструменты, как Claude Code, Codex и Gemini-CLI, нередко самостоятельно генерируют пароли с помощью языковой модели вместо того, чтобы обратиться к безопасным системным утилитам вроде openssl rand. Особенно часто это происходит тогда, когда в промте используются формулировки типа "предложи пароль". В результате слабые учетные данные попадают в Docker Compose-файлы, конфигурации FastAPI или .env-файлы – и часто без всякого предупреждения для разработчика.
Поиск по GitHub обнаруживает десятки примеров открытого кода с такими паролями. Математика подтверждает опасность: 16-символьный пароль от Claude имеет только 27 бит реальной энтропии вместо ожидаемых 98, а первый символ дает только 2,08 бита.
Анализ логарифмических вероятностей GPT показывает еще худший результат – около 20 бит на 20 символов, при этом некоторые позиции имеют энтропию 0,004 бита, то есть являются предсказуемыми на 99,7%.
Атака перебором, ориентированная на типичные ИИ-паттерны, способна взломать такой пароль за несколько часов даже на устаревшем железе.
Попытки обойти проблему через изменение температуры генерации также не дают результата. При максимальном значении 1,0 Claude все равно повторяет любимые комбинации, а при 0,0 выдает одну и ту же строку каждый раз. Отдельные агентные браузеры вроде ChatGPT Atlas могут автоматически вставлять такие пароли при регистрации на сайтах.
Что делать с этим?
- Исследователи рекомендуют командам безопасности проводить аудит кода, где применялся ИИ, и заменять все жестко закодированные паттерны.
- Разработчикам стоит принудительно настраивать агентов на использование криптографически безопасных генераторов или менеджеров паролей.
- Irregular также призывает разработчиков языковых моделей отключить прямую генерацию паролей по умолчанию.
Обычным же пользователям стоит пользоваться для придумывания паролей специальными сайтами, предназначенными для этого. Например, такие предлагают на сайтах антвирусов. Кроме того, некоторые браузеры имеют встроенную функцию генерирования случайных сложных паролей.
На фоне прогнозов о том, что искусственный интеллект вскоре будет писать подавляющую часть всего программного кода, эта уязвимость становится не просто техническим курьезом, а системным риском.


