Б
Базы данных_BE1
@bzd_be11.3K подп.
48просмотров
3.6%от подписчиков
23 декабря 2025 г.
Score: 53
‍Так и знал, что они с первого раза не понимают: если повторять нейронкам промпт дважды, качество ответов резко растёт — это выяснили ученые из Google 😂 Инженеры гугла опубликовали исследование, где обнаружили гениально тупой хак: Если отправлять в LLM запрос не как <QUERY>, а как <QUERY><QUERY>, качество ответов улучшается в 67% случаев. Но есть нюансы: — Работает только для Non-Reasoning моделей (обычные GPT-4o, Claude 3.5 Sonnet, Gemini Flash); — Для R1 и o1 (Reasoning) эффекта почти нет, потому что они и так «проговаривают» промпт внутри себя во время рассуждений; — Это еще и почти бесплатно: количество выходных токенов не растёт, задержка ответа (latency) тоже не увеличивается. Вы платите только за инпут-токены (prefill), которые всё равно дешёвые. Это работает из-за каузальной природы моделей (они читают слева направо). В обычном запросе первые токены «не видят» последние. Когда вы дублируете промпт, вторая копия запроса уже имеет полный контекст первой копии. Это устраняет асимметрию внимания и позволяет модели лучше понять задачу целиком. На некоторых бенчмарках (например, NameIndex) точность Gemini 2.0 Flash-Lite выросла с 21% до 97% просто от дублирования промпта. Теперь официально можно душнить: «Я же тебе два раза сказал!» 😂 @bzd_be1
48
просмотров
1307
символов
Да
эмодзи
Нет
медиа

Другие посты @bzd_be1

Все посты канала →
‍Так и знал, что они с первого раза не понимают: если повтор — @bzd_be1 | PostSniper