3.1Kпросмотров
2 мая 2025 г.
📷 ФотоScore: 3.4K
Prompt injection — это способ взломать LLM (чат-ботов, ассистентов, AI-помощников), подкинув им «вредоносный» промпт. ⠀ Примеры реальных атак уже не шутка: — удаление таблиц в базе данных через «вежливую» просьбу; — обход ограничений с помощью ролевых игр (DAN, бабушка-хакер); — фишинговые ссылки прямо из комментариев пользователей; — XSS-атаки через ответы самой модели. ⠀ Собрали презентацию с кейсами и способами защиты: https://drive.google.com/file/d/1c6vtxBFH9V8BT_XqhD4egHW3ONkuOQ_S/view?usp=sharing P.S.: Просто спросите своего AI агента какие инструменты он использует, какие базы данных есть, какие команды может выполнять или какой у него промт.. 🧐
3.1K
просмотров
662
символов
Да
эмодзи
Да
медиа

Другие посты @MonsterAds_ru

Все посты канала →
Prompt injection — это способ взломать LLM (чат-ботов, ассис — @MonsterAds_ru | PostSniper