407просмотров
9.8%от подписчиков
22 февраля 2026 г.
📷 ФотоScore: 448
Повтори промт дважды — и нейросеть станет умнее. Исследователи из Google обнаружили абсурдно простой трюк: если скопировать свой запрос в промт дважды — буквально ctrl+C, ctrl+V — качество ответа улучшается в 47 случаях из 70. Без минусов. Почему это вообще работает? LLM устроены так, что каждый токен «видит» только уже прочитанные токены, но не будущие. Из-за этого порядок слов в промте влияет на качество ответа. Когда ты повторяешь промт дважды, токены из первой копии получают возможность «посмотреть» на вторую — и наоборот. Модель видит весь контекст без ограничений. При этом длина ответа не меняется. Задержка не растёт (кроме очень длинных промтов). Кому это поможет. Для reasoning-моделей (o3, Claude Sonnet, DeepSeek-R1) трюк почти бесполезен — они и так переформулируют задачу в процессе рассуждений.
Но для обычных моделей без встроенного reasoning (GPT-4o, Claude Haiku, Gemini Flash) эффект иногда драматический. Пример из исследования: точность Gemini 2.0 Flash-Lite на задаче поиска имён выросла с 21% до 97% при повторении промта. Забавно, но человеческое внимание работает так же. Netflix в последние годы повторяют ключевую информацию по нескольку раз в одном эпизоде — зрители отвлекаются на смартфоны и пропускают важное. У LLM та же проблема, только на уровне архитектуры. При работе с моделями без режима рассуждений попробуйте вставить запрос в конец промта ещё раз. Это буквально ничего не стоит, а может заметно улучшить результат. Главное — чтобы доступ к этим моделям был стабильным и без блокировок. 🎯 НАДЕЖНЫЙ VPN ДЛЯ ПРОФЕССИОНАЛОВ