1.7Kпросмотров
22.0%от подписчиков
3 марта 2026 г.
Score: 1.8K
➡️Мега полезняха для промптинга Ловите подборку практик по промптингу, собранных на основе исследований языковых моделей. Автор регулярно ресёрчит arXiv и вытаскивает реальные жемчужины - подходы и техники, которые заметно бустят ллм за счет правильной структуры и формулировки задач. Особенно зайдет тем, кто занимается автоматизацией или пишет огромные промпты-портянки с кучей условий и нюансов. Ну и в целом для наработки насмотрености, чтобы впечатлить своих детей, коллег, соседей и заставить бывшую кусать локти. Вот один из примеров практик: Delimiter Sensitivity: одиночный символ между примерами меняет точность модели на 18-45%
КЛЮЧЕВАЯ СУТЬ
Один символ-разделитель между примерами в промпте (запятая, перенос строки, хэштег) меняет точность LLM на 18-45% — это эквивалент трёх лет эволюции моделей. Проверено на MMLU, ARC-challenge для Llama, Gemma, Qwen, GPT-4o. Метод позволяет стабилизировать точность на few-shot задачах (когда даёшь примеры в промпте) вне зависимости от выбора разделителя. Фишка: добавь одну строку "примеры разделены символом X" — модель перестаёт угадывать где границы примеров, точность стабилизируется на 70-80% вместо плавающих 30-80%. Если ничего не понятно - просто подсунь ссылку языковой модели и попроси усилить твой промпт, применив один из описанных методов. Отсыпьте автору огоньков!❤️