516просмотров
36.1%от подписчиков
3 февраля 2026 г.
Score: 568
Рад поделиться тем, что у команды частью которой Я являюсь, на HuggingFace вышел ТехРепорт по VLA, которая работает на разных роботах в том числе и нашем антропоморфном роботе - Грине (не китайском!). Если вкратце: за последний год стало ясно, что просто «навалить данных» уже не помогает. Чтобы робот перестал тупить в реальных задачах, нужно копать в сторону качества, переносимости между воплощениями и адаптацией в реальном мире Что в отчете:
Выстроили многоуровневый пайплайн обучения: VLM (L0) -> SFT VLM (L1) -> претрейн VLA (R0) → SFT VLA (R1) → RL finetune (R2), где каждая фаза последовательно адаптирует модель понимать и действовать в физическом мире.
Унифицировали действия (R64): Сделали единый интерфейс для разных роботов. Использовали маскированный loss, для того чтобы разнородные пространства действий у воплощений не путали модель
Выстроили жесткий пайплайн работы с данными: Выстроили пайплайны фильтрации данных, оценки качества и разнообразия датасетов, оценки и выравнивания скорости движений в данных.
RL, JPM и OOD-detector: Научили роботов не просто копировать движения, а восстанавливаться после ошибок + обобщаться на абсолютно новые предметы без переобучения. И главное — вовремя останавливаться, а не «суетиться» после того, как задача уже сделана. В итоге — SOTA на бенчмарках и отличная работа вживую на том же ALOHA, и нашем антропоморфном роботе - Грине. Внутри много «скучной», но важной инженерки, благодаря которой всё это реально работает, а не просто красиво выглядит на видео. 📌 Почитать можно тут: https://huggingface.co/papers/2602.00919 Наш сайт: https://sber.ru/robocenter Резюме и предложения: @alex_postnikov26
@pdemen
(Можно написать мне если ребята не доступны:@Alexander_Nutalapati) Будем благодарны за апвоуты и поддержку! 🙏