5.6Kпросмотров
2 февраля 2026 г.
Score: 6.2K
YouTube | RuTube | Telegram Недавно я писал про участие в ERC3 от Рината @llm_under_hood. Это соревнование между AI-агентами, которые управляют различными организациями. Мы с агентом заняли там 7-ое место Мне очень нравится этот формат соревнований: тебя не оценивают по красивой презе или умению влезть в лимиты организаторов. Важно только решить задачу, остальное делай как хочешь! По итогам провел открытый вебинар с live-coding сессией, где показал весь процесс создания агента с нуля Что внутри (~1.5 часа):
- Как устроено соревнование ERC3
- Какой был план участия и что получилось
- Разбор реальных задач
- Архитектура: ванильный ReAct на LangGraph
- Live-coding в Cursor: создаем агента с нуля, запускаем цикл самоулучшения
- Переключаем агента на GigaChat и сравниваем с GPT-5.2
- Итоги: wins & fails
- Ответы на вопросы По итогу прямо во время вебинара я навайбкодил агента, который решает задачи, затем запустил цикл самоулучшения в курсоре, ровно так же как это было во время соревнования. Еще показал, как можно переключить агента на GigaChat и сравнил его с разными моделями OpenAI Главные инсайты:
- Современные LLM уже достаточно умные, чтобы чистый ReAct агент мог выполнять длинные цепочки действий без сложных оркестраторов. Достаточно дать правильные инструменты и хороший промпт (уже писал про это)
- Запуск цикла самоулучшения позволяет эффективно решить задачи, где есть четкий бенчмарк. Да, тут есть переобучение на конкретный набор задач - это осознанная плата за такой подход Уже после записи посмотрел видео Алексея Острикова, который занял первое место и тоже записал разбор своего участия. Оказалось, что его подход очень похож на мой (ReAct + цикл самоулучшения). Было очень интересно посмотреть и сравнить Исходники выложил на GitHub - можно забрать и повторить у себя. Там же лежит презентация P.S. Советую посмотреть тем, кто все еще сомневается - нужен ли им AI assistant coding или делает в нем первые шаги