Ю
Юристы & Нейросети
@LegalMindAI10.9K подп.
7.3Kпросмотров
67.1%от подписчиков
1 марта 2026 г.
📷 ФотоScore: 8.1K
Почему ИИ‑модели внутри Perplexity отвечают хуже, чем в оригинале Сегодня поговорим о Perplexity. Мне часто встречается мнение, что один сервис - Perplexity может заменить собой все: «Зачем платить за несколько подписок и мучиться с доступами, если есть Perplexity? В одном месте собраны все передовые модели: ChatGPT, Claude, Gemini и Grok». На первый взгляд это звучит убедительно: один интерфейс для всех задач, один платеж вместо зоопарка подписок, одновременный доступ ко всем топовым нейросетям - и без проблем с доступом из России. Просто лайфхак из лайфхаков, взлом системы👌 Но здесь огорчу: ChatGPT, Claude и Gemini внутри Perplexity и на оригинальных платформах - это совершенно разные продукты с заметной разницей в качестве ответов. Этот вывод становится очевидным сразу, как только начинаешь сравнивать ответы на реальных рабочих задачах. Я давно пришел к этому наблюдению, но все не доходили руки «оцифровать» разницу и посмотреть на конкретные цифры. Наконец сделал это. Сравнение ответов по 5 критериям Я решал свои обычные рабочие задачи по поиску информации на правовые темы и параллельно фиксировал разницу: одни и те же промпты поочередно уходили в Perplexity Pro (модель ChatGPT 5.2 Thinking) и на оригинальный ChatGPT 5.2 Thinking. Запускались промпты в режиме поиска. Ниже - усредненные цифры и наблюдения. На других топовых моделях картина складывается аналогично. 1️⃣ Количество источников. Глубина поиска в Perplexity существенно ниже: оригинальный ChatGPT обработал порядка 120–130 источников против ~30 в Perplexity. Оригинал охватывает в 4-5 раз больше данных - Perplexity заметно ограничивает информационную базу для анализа. 2️⃣ Качество и релевантность источников. Оригинальный ChatGPT находит более глубокие, профильные и точные материалы. В Perplexity выборка скромнее, что снижает экспертность итогового ответа. 3️⃣ Точность соблюдения условий запроса. Perplexity часто «теряет» узкие условия из промпта. В сложных профессиональных задачах, где важна каждая деталь, оригинальный ChatGPT держит фокус на всех требованиях, тогда как версия в Perplexity склонна к обобщению и игнорированию специфических критериев. 4️⃣ Объем и детализация ответов. Оригинальная платформа дает значительно более развернутый и детальный ответ. Объем вывода в Perplexity в среднем на 23–33% меньше, чем на родной платформе - получить исчерпывающий разбор сложной темы сильно труднее. 5️⃣ Достоверность данных. Здесь - паритет. Оба сервиса достаточно корректно передают суть найденных материалов. Итого по 4 из 5 критериев работа модели в оригинальном сервисе оказывалась лучше, чем в Perplexity. Почему так происходит? (техническая часть) Причин для этого много, но выделю основные из них. 🔷 Модель внутри Perplexity не ищет сама. Поиск выполняет сервис: собирает документы, сжимает их - и передает модели готовую подборку. ChatGPT внутри Perplexity не исследует сайты в интернете, а лишь синтезирует ответ по заранее отфильтрованным Perplexity материалам. 🔷Промпт доходит не напрямую. Между нашим запросом и моделью стоит системный промпт Perplexity - правила стиля, формата, цитирования. Эта надстройка подавляет часть возможностей модели еще до начала работы. 🔷Жесткие лимиты на поиск и длину ответа. Оригинал может многократно уточнять запрос и копать глубже. В Perplexity же действуют жесткие лимиты для экономии ресурсов, сервис останавливается быстрее и агрессивно сжимает найденное: в итоговый контекст попадает лишь небольшой набор, который сервис счел лучшим. Если выбор оказался неточным - модель уже не исправит это сама. 🚩Все это - не баг, а экономика. Сервис- посредник просто не может позволить каждому пользователю потреблять столько же ресурсов, сколько на оригинальной платформе из-за того, что он сам закупает доступ к данной модели у провайдера. В Perplexity мы получаем «лайт-версию» мощных моделей. Увы и ах, но Perplexity - это не панацея. Удобный инструмент, но не замена нейросетям из тройки лидеров. 💬 А вы замечали, что Perplexity
7.3K
просмотров
4000
символов
Да
эмодзи
Да
медиа

Другие посты @LegalMindAI

Все посты канала →
Почему ИИ‑модели внутри Perplexity отвечают хуже, чем в ориг — @LegalMindAI | PostSniper