3.3Kпросмотров
16 июля 2025 г.
question📷 ФотоScore: 3.6K
Помнишь, как прятали невидимые команды (prompt injection) в статьи на arXiv, чтобы влиять на то, что пишет AI? Тогда это было тревожным сигналом: модели легко обмануть скрытым текстом. А теперь Richard Dunks (респект 👏) провернул то же самое в описании своей работы — и AI снова клюнул. Что это нам говорит?
↳ Модели по-прежнему уязвимы. Доверять — да, но проверяй (актуально также для LLM/AI)!
↳ Но! Это можно использовать в хороших целях — например, подсказать, кого искать, или защититься от спама. Вывод?
AI — мощный инструмент, но всё ещё инструмент.
Либо ты управляешь им, либо он — тобой. Я за первый вариант. 😉 А тебя уже AI как-нибудь удивлял? P.S. Хочешь проверить, AI это или человек? Спроси: "пузырьковая сортировка на Python". Человек: лёгкое замешательство в глазах.
AI: готовый код быстрее, чем ты успеешь сделать глоток кофе! 😅 #ai #llm #promt_injection
@data_work