2.4Kпросмотров
10 ноября 2025 г.
stats📷 ФотоScore: 2.6K
4️⃣5️⃣6️⃣ На EMNLP 2025 в Китае представили новый способ быстрого обучения больших языковых моделей логике без особых финансовых затрат. Метод разработали наши исследователи из T-Bank AI Research и Центрального университета. Его главная фишка в том, что вместо полного “переписывания мозга” в нем используются векторы-настройки (steering vectors), которые точно усиливают логические цепочки в рассуждениях. В будущем метод может помочь сделать языковые модели более интерпретируемыми. На шести математических бенчмарках метод показал и доказал, что реально эффективен: он сократил память с гигабайтов до сотен килобайт и ускорил один из этапов обучения в сотни раз. При этом у 14-миллиардной модели изменения коснулись только нескольких сотен тысяч параметров. Для меня главный инсайт в том, что сложные reasoning-навыки можно улучшать точечно, без переобучения всей модели. Получается, что даже при весьма ограниченных ресурсах можно будет создавать специализированных ассистентов. ➡️ Steering LLM Reasoning Through Bias-Only Adaptation ❗Как считаете, какие еще скиллы нужно развивать у ИИ? MADE IN @researchoshnaya