3.0Kпросмотров
28.3%от подписчиков
13 марта 2026 г.
Score: 3.3K
Пост от Сергея Бульдяева (одного из докладчиков на предстоящем AI Dev Day) заставил меня пойти и полностью прочитать статью от Антропиков. Ну, как прочитать - закинуть в ChatGPT и попросить подробно рассказать о чём там. Наверное, хватило бы и поста, но в последнее время я люблю работать с первоисточниками, загруженными в нейронку. Во-первых, несовершенство знания языка не мешает, а во-вторых, такая классная возможность сразу задавать вопросы по всем непонятным или не до конца раскрытым вопросам, что я больше не могу ей не пользоваться. Это как с мудрым преподавателем во время семинара общаться. В общем, вот, какие мысли. Сначала из базы: мультиагентная система - это архитектура, в которой несколько экземпляров LLM работают с отдельными контекстами диалога и координируются через код. Подходы к координации во многом напоминают микросервисные архитектуры - рои агентов (это как несколько воркеров для одной задачи), системы на основе возможностей (специализированные микросервисы для решения конкретных задач), архитектуры на основе шины данных (ага, брокеры сообщений же). Самый простой и практичный паттерн - это когда есть главный агент, который ставит задачи агентам-помощникам (subagents). Но при таком подходе агенты нещадно пожирают токены. По сути, один и тот же контекст гоняется туда-сюда несколько раз. А токены, как мы знаем, не бесплатные. Второе. Чем больше агентов - тем больше потенциальных точек отказа. Это как испорченный телефон - если один из агентов отдал некорректный вывод - остальные его будут использовать. Чтобы такого не случалось - требуются дополнительные надзиратели-контролёры в попытке решить извечный вопрос: кто будет контролировать самих контролёров. Основной посыл статьи в том, что зачастую лучше иметь одного агента с хорошо написанным промтом и набором доступных инструментов, чем много агентов с разными промтами (которые, кстати, тоже нужно поддерживать в актуальном состоянии). И, вот, есть у меня от всего этого стойкое ощущение продолжения "горького урока". Индустрия пытается создать очень узкоспециализированные инструменты, хорошо решающие определённый класс задач, но потом в очередной раз оказывается, что достаточно просто подтюнить промт для хорошей универсальной модели. Инженеры пытаются навязать узкие роли LLM-кам, чтобы они коллективно взаимодействовали друг с другом в попытках прийти к лучшему решению, а потом оказывается, что один агент, владеющий всем контекстом справляется даже лучше. Правильная декомпозиция - всему голова. Забудьте про роли, как бы не хотелось думать, что у вас целая команда отдельных специалистов, отвечающих за планирование, исследование, написание кода и т.п. Делите задачи по границам контекста. Если нескольким шагам нужен один и тот же контекст - лучше, чтобы их выполнял один агент. Во многих случаях это окажется и проще, и дешевле, и надёжнее.
3.0K
просмотров
2852
символов
Нет
эмодзи
Нет
медиа

Другие посты @toBeAnMLspecialist

Все посты канала →