D
Data Mining | Анализ данных🚀
@dataminingteam3.6K подп.
977просмотров
27.4%от подписчиков
26 февраля 2026 г.
📷 ФотоScore: 1.1K
На днях Google выкатил статью с дико неочевидным тезисом: чтобы модель отвечала точнее, нужно дважды отправить ей один и тот же промпт. Звучит как шутка, но работает на всех топ-моделях (Gemini, GPT, Claude, Deepseek) и почти в 70% тестов. Cуть в том, что дублирование заставляет думать нейронку в заданном контексте. Что особенно цепляет: мы привыкли, что сложное чинят сложным, а тут - просто Ctrl+C, Ctrl+V, и точность повышается. Самый яркий пример - тест NameIndex, где модель должна назвать 25-е имя из списка в 50 позиций. Без повторения точность 21%, с повторением - 97%. Получаем: дубль = точность🤔. Так что, мы до сих пор не понимаем, как работают наши же модели :) Примечание: работает только для моделей без reasoning* arxiv.org/abs/2512.1...
977
просмотров
757
символов
Да
эмодзи
Да
медиа

Другие посты @dataminingteam

Все посты канала →
На днях Google выкатил статью с дико неочевидным тезисом: чт — @dataminingteam | PostSniper