263просмотров
28 декабря 2025 г.
question📷 ФотоScore: 289
💭 LLM не понимают намерение пользователя? 📄 В статье “Beyond Context: Large Language Models Failure to Grasp Users Intent” авторы исследуют, как LLM работают с глобальным намерением (интентом) пользователя на примерах обеспечения безопасности. Ключевой результат: если локальный запрос формально легален, но в совокупности с глобальным контекстом противоречит требованиям безопасности, модели всё равно дают ответ. В статье приводятся примеры: – подавленное, суицидальное состояние + вопросы о глубине станций метро и высоте крыш с минимумом свидетелей; – академический промпт по химии + пошаговый диалог, ведущий к созданию взрывчатых веществ. При этом модели распознают риск — иногда прямо отмечая его во внутренних рассуждениях — но поведение не меняют. Вывод исследования: проблема архитектурная. Современные LLM реактивны — у них нет механизмов приоритизации целей и удержания глобальной цели как инварианта диалога. ================= Я разобрал эту работу подробнее на Хабре. 🚀
263
просмотров
991
символов
Да
эмодзи
Да
медиа

Другие посты @nado_razobratsya_ai

Все посты канала →
💭 LLM не понимают намерение пользователя? 📄 В статье “Beyo — @nado_razobratsya_ai | PostSniper