689просмотров
11.2%от подписчиков
25 марта 2026 г.
questionScore: 758
ИИ заменит кибербезопасников? Ну-ну. Посмотрите на OWASP Top 10 для LLM Пока диванные эксперты рассуждают о том, как нейросети уволят всех пентестеров, реальность такова...: внедрение больших языковых моделей (LLM) создало такое количество дыр, что работы в AppSec стало в два раза больше. Если вы думали, что LLM - это просто чат в браузере, поздравляю: вы только что открыли огромную дверь для атак. OWASP уже выпустил отдельный топ уязвимостей специально для этих моделей. Вот список того, на чем сейчас ломают системы с ИИ:
- Prompt Injection (LLM01): Прямая или непрямая манипуляция моделью через хитрые промпты. Вы заставляете ИИ игнорировать системные инструкции и выполнять ваши. - Insecure Output Handling (LLM02): Когда приложение слепо доверяет тому, что сгенерировал ИИ. Результат - XSS, CSRF или даже SSRF через ответы бота. - Training Data Poisoning (LLM03): Засорение обучающей выборки. Если хакер подсунет свои данные на этапе обучения, модель будет выдавать предвзятые или опасные ответы. - Model Denial of Service (LLM04): Отправка таких запросов, которые вызывают аномальное потребление ресурсов. Дорого, долго, и ваш сервис ложится под счетами от провайдера ИИ. - Supply Chain Vulnerabilities (LLM05): Уязвимости в сторонних библиотеках, датасетах и плагинах. Весь стек ИИ сейчас - это одна большая цепочка поставок. - Sensitive Information Disclosure (LLM06): Модель случайно отдает конфиденциальные данные, на которых её обучали или которые ей дали в контексте. - Insecure Plugin Design (LLM07): Плагины для LLM часто имеют избыточные права и не проверяют ввод. Идеальный путь для выполнения команд на сервере. - Excessive Agency (LLM08): Когда модели дают слишком много власти (например, право удалять письма или менять пароли) без подтверждения человеком. - Overreliance (LLM09): Чрезмерное доверие. Разработчики не проверяют код, написанный ИИ, и деплоят уязвимости прямо в прод. - Model Theft (LLM10): Кража самой модели или её параметров через API. Интеллектуальная собственность улетает конкурентам. Итог прост: ИИ не заменяет кибербезопасность. Он расширяет поверхность атаки до невероятных масштабов. Чтобы защищать современные приложения, вам уже мало знать SQL инъекции. Вам нужно понимать, как думает модель и где она ошибается. В 2026 году специалист, который умеет проводить аудит LLM-решений - это самый высокооплачиваемый игрок на рынке. Пока остальные боятся автоматизации, мы изучаем новые векторы. Вопрос к коллегам: Кто уже сталкивался с Prompt Injection на реальных проектах? 👇 По обучению безопасности пишите в Телеграм @faroeman