51просмотров
7.7%от подписчиков
23 февраля 2026 г.
questionScore: 56
⁉️ G7kL9#mQ2&xP4!w — и это «надёжно»? ИИ-пароли — это иллюзия надёжности. Исследователи из Irregular Security выяснили, что пароли, сгенерированные ChatGPT, Claude и Gemini, выглядят сложными — но на деле повторяются и легко угадываются. Один и тот же пароль встречался в 36% случаев, а реальная энтропия составила всего 27 бит вместо заявленных 98. Это означает, что такие пароли могут быть взломаны за минуты, а не за века, как обещают онлайн-сервисы. Причина — в природе языковых моделей. LLM не создают случайные строки, а предсказывают вероятные токены. В результате — шаблонные пароли с одинаковыми символами в начале и конце, повторяющиеся структуры и отсутствие настоящей случайности. Даже повышение «температуры» не решает проблему: модели продолжают генерировать предсказуемые варианты. Опасность — в коде и продакшне. ИИ-агенты, пишущие код, часто вставляют слабые пароли в конфигурации Docker, базы данных и .env-файлы. Даже когда они могут вызвать криптографически стойкий генератор, они предпочитают «сочинить» пароль сами. GitHub уже показывает десятки репозиториев с характерными паттернами. Рекомендация Irregular: никогда не использовать пароли, сгенерированные напрямую через LLM, и явно указывать безопасные методы генерации. Наш бот уже умеет генерировать безопасные пароли: https://t.me/ROOTWIN_PROJECT/1966?single #ИИ #Пароли #Безопасность #LLM #ChatGPT #Claude #Gemini #IrregularSecurity #Киберугрозы #ГенерацияПаролей #GitHub #DevSecOps ROOTWIN_PROJECT