D
DataWorkshop - AI & ML
@data_work2.0K подп.
3.3Kпросмотров
16 июля 2025 г.
question📷 ФотоScore: 3.6K
Помнишь, как прятали невидимые команды (prompt injection) в статьи на arXiv, чтобы влиять на то, что пишет AI? Тогда это было тревожным сигналом: модели легко обмануть скрытым текстом. А теперь Richard Dunks (респект 👏) провернул то же самое в описании своей работы — и AI снова клюнул. Что это нам говорит? ↳ Модели по-прежнему уязвимы. Доверять — да, но проверяй (актуально также для LLM/AI)! ↳ Но! Это можно использовать в хороших целях — например, подсказать, кого искать, или защититься от спама. Вывод? AI — мощный инструмент, но всё ещё инструмент. Либо ты управляешь им, либо он — тобой. Я за первый вариант. 😉 А тебя уже AI как-нибудь удивлял? P.S. Хочешь проверить, AI это или человек? Спроси: "пузырьковая сортировка на Python". Человек: лёгкое замешательство в глазах. AI: готовый код быстрее, чем ты успеешь сделать глоток кофе! 😅 #ai #llm #promt_injection @data_work
3.3K
просмотров
889
символов
Да
эмодзи
Да
медиа

Другие посты @data_work

Все посты канала →
Помнишь, как прятали невидимые команды (prompt injection) в — @data_work | PostSniper