2.1Kпросмотров
20.9%от подписчиков
22 марта 2026 г.
Score: 2.3K
Опыт в копилку: как ИИ-агенты перестают решать одно и то же с нуля Аналитический центр red_mad_robot рассказывает и комментирует главные новости индустрии за неделю с 16 по 20 марта 🟥 Alibaba, Ant, Tencent, Oppo и другие исследователи представили SkillNet: открытую инфраструктуру для создания, оценки и организации навыков ИИ. Работа системы начинается с этапа сбора — SkillNet анализирует разные источники и на их основе генерирует новые навыки. Далее происходит отбор, при котором удаляются дубликаты, определяется категория и проводится оценка по безопасности, полноте, исполнимости, поддерживаемости и учёту затрат. Чтобы управлять растущей базой знаний, SkillNet использует трёхуровневую онтологию: 1️⃣ Верхний уровень: таксономия навыков с распределением по крупным направлениям с уточняющими тегами.
2️⃣ Средний уровень: граф связей с отображением зависимостей и семантических отношений между навыками.
3️⃣ Нижний уровень: объединение отдельных навыков в модульные наборы для решения конкретных задач. Эксперименты на ALFWorld, WebShop и ScienceWorld показали, что инфраструктура существенно повышает эффективность ИИ-агентов: средняя награда растёт на 40%, а количество шагов снижается на 30%. Почему это важно: SkillNet превращает разрозненный опыт ИИ-агентов в систему многоразовых навыков. Однажды отработанные решения можно применять повторно — это экономит вычислительные ресурсы и время. А система строгих оценок гарантирует, что в репозиторий попадают только безопасные и работоспособные навыки. При этом система не статична: чем активнее её используют, тем более зрелыми и адаптивными становятся возможности. Это формирует ещё один шаг к самостоятельным и автономным агентам. 🟥 Moonshot выпустила Attention Residuals: подход, где сеть сама решает, какие представления и в каких пропорциях использовать из прошлых слоёв в зависимости от входных данных. По сути, механизм внимания переносится по вертикали — между слоями, а не только токенами. Чтобы это также работало на больших моделях без перегрузки памяти, авторы предложили механизм Block AttnRes. Он делит сеть на блоки, внутри которых используется привычное накопление, а умное внимание включается только между блоками. На практике это даёт сопоставимую точность при снижении вычислений примерно в 1,25 раза, увеличивает время инференса менее чем на 2% и делает обучение более стабильным. Почему это важно: исследователи предложили улучшить остаточные связи (residual connections) в нейросетях. Обычно каждый слой сети просто добавляет свой результат к тому, что уже накопилось, — Attention Residuals меняет логику. Подход позволяет учиться избирательно обращаться к представлениям из предыдущих слоёв, которые действительно важны на данном шаге. Это снижает размытие информации и контролирует рост внутренних состояний модели.
Также на неделе:
• Google Research показал, что просьба рассуждать LLM помогает расширить границы знаний модели даже в простых фактических вопросах
• Amazon предложил иерархическую систему планирования для сложных веб-задач на основе динамических AND/OR-деревьев
• University of Maryland представил метод обучения с подкреплением для ИИ-агентов, который учит не просто повторять правильные действия, а осознанно оценивать качество и понимать, почему одно решение лучше другого
• IBM разработал фреймворк, который извлекает полезные выводы из траекторий работы агента и улучшает его результаты через контекстную память
• NVIDIA анонсировала NemoClaw (корпоративную версию OpenClaw), ЦОД в космосе, инфраструктуру Vera Rubin и модель для автономного вождения
• Mistral открыл платформу для обучения моделей на своих закрытых данных
• Manus представил ИИ-агента для работы с файлами и приложениями на компьютере
• MiniMax выпустил самоэволюционирующую модель
#AI_moment #трендвотчинг ↗️ red_mad_robot