392просмотров
48.7%от подписчиков
14 февраля 2026 г.
questionScore: 431
Как писать промпт для большой языковой модели? В статье рекомендуется автоматизация процесса, ниже тезисное изложение. Промпт‑инжиниринг перестал быть «магией слов» и стал задачей оптимизации в чёрном ящике.
Современные LLM чувствительны к формулировкам, нестабильные и плохо переносят ручные правки.
Промпт — это параметр модели, который нужно оптимизировать алгоритмически.
Формально задача — поиск промпта, максимизирующего метрику качества на датасете.
Главные проблемы: нет градиентов, логпробы бесполезны, пространство вариантов огромно.
Методы делятся на эволюционные, программные и генеративно‑эвристические.
TextGrad и MetaPrompt используют критику модели как «текстовый градиент».
HRPO исправляет не отдельные ошибки, а их классы через кластеризацию.
GEPA применяет генетические алгоритмы и Парето‑оптимизацию для набора лучших промптов.
DSPy заменяет текстовые промпты программированием модулей и оптимизацией всей цепочки.
APE генерирует множество инструкций и выбирает лучшие по метрике.
OPRO оптимизирует промпты через историю попыток, используя in‑context learning как оптимизатор.
STaR и ReST — ранние самообучающиеся методы, сейчас почти не применяются.
Главные риски: оверфит, дрейф моделей, потеря инструкций в длинных контекстах.
Ручное написание промптов в 2026 году — кустарщина; нужны пайплайны оценки, фреймворки и автоматизация. https://habr.com/ru/articles/994624/