L
LLM по делу
@promtmanager2.7K подп.
19просмотров
0.7%от подписчиков
3 марта 2026 г.
questionScore: 21
📹Почему ИИ сегодня ответил идеально, а завтра — “вода”?📹 ➡️LLM чаще всего тянется к типовым шаблонам. Если запрос размытый — включается “универсальный режим” и ответ гуляет. Если в запросе есть опоры(контекст + формат) — ответ становится заметно стабильнее. Было (размыто): “Напиши про сервис.” Стало (по делу): “Сделай пост для Telegram на 900–1100 знаков: что даёт гостю раннее бронирование. ЦА: семьи. Формат: 1 заголовок + 5 тезисов + финальная строка-призыв. Без общих фраз.” Было (слишком общее): “Подскажи идеи для рекламы.” Стало (управляемо): “Дай 10 идей для рекламы пансионата в межсезонье. Ограничения: без скидок, упор на ценность. Формат: таблица (идея / канал / 1 фраза-хук).” ➡️Чек-лист “стабильного промпта” (30 секунд): •Цель: что именно нужно на выходе. •Контекст: кто аудитория / где используется. •Формат: структура ответа (пункты/шаги/таблица). •Ограничения: объём, тон, что исключить (“без воды”, “без общих фраз”). •Данные: если есть цифры/факты — вставляй их в запрос, иначе модель будет додумывать. ➡️Итог: не “просить ответ”, а задавать рамку — тогда LLM работает предсказуемо.
19
просмотров
1112
символов
Нет
эмодзи
Нет
медиа

Другие посты @promtmanager

Все посты канала →
📹Почему ИИ сегодня ответил идеально, а завтра — “вода”?📹 ➡ — @promtmanager | PostSniper