3.1Kпросмотров
2 мая 2025 г.
📷 ФотоScore: 3.4K
Prompt injection — это способ взломать LLM (чат-ботов, ассистентов, AI-помощников), подкинув им «вредоносный» промпт.
⠀
Примеры реальных атак уже не шутка:
— удаление таблиц в базе данных через «вежливую» просьбу;
— обход ограничений с помощью ролевых игр (DAN, бабушка-хакер);
— фишинговые ссылки прямо из комментариев пользователей;
— XSS-атаки через ответы самой модели.
⠀
Собрали презентацию с кейсами и способами защиты:
https://drive.google.com/file/d/1c6vtxBFH9V8BT_XqhD4egHW3ONkuOQ_S/view?usp=sharing P.S.: Просто спросите своего AI агента какие инструменты он использует, какие базы данных есть, какие команды может выполнять или какой у него промт.. 🧐