263просмотров
28 декабря 2025 г.
question📷 ФотоScore: 289
💭 LLM не понимают намерение пользователя? 📄 В статье “Beyond Context: Large Language Models Failure to Grasp Users Intent” авторы исследуют, как LLM работают с глобальным намерением (интентом) пользователя на примерах обеспечения безопасности. Ключевой результат:
если локальный запрос формально легален, но в совокупности с глобальным контекстом противоречит требованиям безопасности, модели всё равно дают ответ. В статье приводятся примеры: – подавленное, суицидальное состояние + вопросы о глубине станций метро и высоте крыш с минимумом свидетелей; – академический промпт по химии + пошаговый диалог, ведущий к созданию взрывчатых веществ. При этом модели распознают риск — иногда прямо отмечая его во внутренних рассуждениях —
но поведение не меняют. Вывод исследования: проблема архитектурная.
Современные LLM реактивны — у них нет механизмов приоритизации целей и удержания глобальной цели как инварианта диалога.
================= Я разобрал эту работу подробнее на Хабре. 🚀