219просмотров
84.6%от подписчиков
19 марта 2026 г.
📷 ФотоScore: 241
продолжу делиться опытом работы с codex cli, подключённый через прокси-роутер. задача была простая: собрать 50 поисковых запросов по товарам клиента, разбить на 5 пакетов и отдать 5 агентам на параллельный прогон. дальше — собрать логи, сравнить поведение, поправить ошибки и снова в цикл. ощущается как нормальный рабочий пайплайн. агенты сами идут вперёд, меньше уточняют, быстрее сходятся к результату. особенно заметно на повторных прогонах — после фиксов поведение стабилизируется без ручного контроля каждого шага. и вот что оказалось неожиданным — сильно влияет не только модель, но и cli-клиент. раньше вообще не придавал этому значения. codex cli — по сути родной терминальный клиент от openai под gpt-модели. и в нём та же самая модель ведёт себя иначе, чем в claude code или opencode: меньше “болтает”, больше делает. поведение модели определяется не только её версией, но и интерфейсом, через который ты с ней работаешь. пока выглядит так, что для итеративных задач и агентных циклов codex cli даёт гораздо более предсказуемый результат. а еще субагентам даются имена: Dewey [worker], Ampere [worker], Feynman [explorer], Carver [explorer], Bacon [explorer]