2.1Kпросмотров
10.7%от подписчиков
16 марта 2026 г.
🎬 ВидеоScore: 2.3K
OpenClaw + RL Агенты OpenClaw адаптируются с помощью файлов памяти и навыков (skills), но веса базовой модели на самом деле не меняются. Как OpenClaw-RL решает эту проблему? Он оборачивает самостоятельно размещённую модель в API, совместимый с OpenAI, перехватывает живые диалоги из OpenClaw и обучает политику в фоновом режиме с помощью RL (обучения с подкреплением). Архитектура полностью асинхронная. Это означает, что: обработка запросов, оценка награды (reward scoring), и обучение выполняются параллельно. После завершения обучения веса модели "hot" подменяются (hot-swap) после каждого батча, при этом агент продолжает отвечать без остановки. В настоящее время поддерживаются два режима обучения: Binary RL (GRPO): модель награды оценивает каждый ход диалога как хороший, плохой или нейтральный. Эта скалярная награда используется для обновления политики через PPO-подобную функцию цели с клиппингом. On-Policy Distillation: когда появляются конкретные исправления, например "тебе нужно было сначала проверить тот файл", эта обратная связь используется как более богатый направленный сигнал обучения на уровне токенов. Когда стоит использовать OpenClaw-RL? Честно говоря, большую часть поведения агента уже можно улучшить через более грамотный дизайн памяти и навыков. Существующая экосистема навыков OpenClaw и созданные сообществом навыки самоулучшения покрывают широкий спектр задач без изменения весов модели. Если агент постоянно забывает предпочтения пользователя - это проблема памяти. Если он не знает, как обработать конкретный рабочий процесс - это проблема навыков. Обе задачи решаются на уровне промптов и контекста. RL становится действительно интересным, когда источник ошибки лежит глубже - в самом механизме рассуждения модели. Например: систематически плохой порядок выбора инструментов, слабое многошаговое планирование, неспособность правильно интерпретировать неоднозначные инструкции так, как ожидает конкретный пользователь. Исследования в области agentic RL (например, ARTIST и Agent-R1) показывают, что такие поведенческие паттерны достигают потолка, если использовать только промпт-подходы. Особенно это заметно в сложных многошаговых задачах, где модели нужно: восстанавливаться после ошибок инструментов, или менять стратегию прямо во время выполнения. Именно этот уровень и является целью OpenClaw-RL - и это ключевое отличие от того, что предлагает обычный OpenClaw.
2.1K
просмотров
2427
символов
Нет
эмодзи
Да
медиа

Другие посты @devsp

Все посты канала →
OpenClaw + RL Агенты OpenClaw адаптируются с помощью файлов — @devsp | PostSniper