807просмотров
97.6%от подписчиков
18 марта 2026 г.
📷 ФотоScore: 888
Твой AI-ассистент сожрал гавна, а ты даже не заметил 👀 Пока ты просишь AI «сделать саммари», хакеры вовсю юзают Font Poisoning — метод взлома, который невозможно увидеть глазами. В чём прикол, малютки:
Используются шрифты (@font-face), где начертание буквы не совпадает с кодом. Ты видишь «Безопасно», AI видит команду на кражу данных. Как это работает:
1. Заходишь на сайт со шрифтовым «терроризмом».
2. Нажимаешь Summarize (пересказать).
3. AI читает текстовый слой (DOM), а не картинку.
4. Вместо пересказа модель послушно выполняет prompt-injection. Итоги LayerX (декабрь 2025):
• 0 из 10 ассистентов распознали атаку.
• Уязвимы все: ChatGPT, Copilot, Gemini, Perplexity и Grok.
• Шанс поймать инъекцию — 100%. Это новый вектор фишинга. Microsoft называет это новой эрой отравления памяти AI. Совет: не скармливайте нейронкам левые сайты.