388просмотров
41.2%от подписчиков
23 января 2026 г.
📷 ФотоScore: 427
Как «ага» и «подожди» заставляют ИИ думать лучше 🤖 Google и Чикагский университет выпустили работу о природе «рассуждений» в больших языковых моделях. Главный инсайт – Reinforcement Learning учит модель думать не дольше, а симулировать внутренний диалог. Это назвали «обществом мыслей» (society of thought). Замечали, что модель иногда:
· задаёт себе уточняющие вопросы,
· делает паузы,
· пересматривает ответ? 📎Эта структура и есть механизм рассуждения. Причем здесь «ага»?
1. Гуглы нашли особый паттерн активности, связанный с моментами осознания, удивления, смены перспективы. Он вспыхивает на фразах: «ага», «стоп…», «то есть…» и т.д. 2. Этот паттерн искусственно усиливали и подавляли в модели DeepSeek-R1-Llama-8B. 3. На сложных арифметических задачах результат изменился так: · Базовая точность: 27,1% · С усилением «диалогового маркера»: 54,8% · С подавлением: 23,8% Рост точности значим и связан именно с улучшением стратегического мышления, а не с увеличением длины ответа. 🧑💻Что это значит на практике?
Похоже, LLM рассуждают как целая команда: один сомневается, другой проверяет, третий пересобирает вывод. Отсюда интересная фича: иногда стоит просить модель «использовать больше “А!”, “точно!”, “подожди…” и перепроверять вывод. ❤️ DataUnderControl #ИИ #LLM #ML #AI #DataScience