993просмотров
25.4%от подписчиков
6 марта 2026 г.
Score: 1.1K
О промптах для отдельных моделей, например, промпты для DeepSeek Наблюдение 1. Если промпт грамотный, он примерно работает везде. Вернее, везде в моделях более-менее одинакового уровня и преднастроек. Gemini, Claude, Qwen, DeepSeek и т.п. Мелкие нюансы вывода -- это уже вопрос преднастроек моделей. Но общий корень в 95% - вполне нормально. Наблюдение 2. Да, есть промпты-гиганты или промпты с особыми условиями (загрузка больших массивов данных, создание диаграмм и т.п), которые работают не везде. Например, часть наших очень больших промптов (50+ страниц) работают только в Gemini или только в Claude. Но это только потому, что все другие модели по каким-то своим характеристикам "не везут". В целом же, если характеристики будут, промпт должен примерно аналогично отрабатывать везде. Наблюдение 3. Относительно небольшие промпты (обычные, скажем так) работают по-разному в разных моделях только в одном случае — если промпт недостаточно качественный с точки зрения промпт-инжиниринга. Да, в какой-то модели что-то срабатывает, но другие уже его не понимают. Особенности ли это моделей? Можно ли говорить, что нужно делать промпты для разных моделей? В третьем случае — нет. Это просто "как-то почему-то работает где-то". А в принципе — когда гуманитарный код "чистый", он работает везде.
993
просмотров
1316
символов
Нет
эмодзи
Нет
медиа

Другие посты @neuropanda_app

Все посты канала →
О промптах для отдельных моделей, например, промпты для Deep — @neuropanda_app | PostSniper