Р
рома джипити
@dlaiml257 подп.
351просмотров
29 января 2025 г.
Score: 386
сравнение трендовых нейросетей как и обещал, сделал для вас тест-сравнение таких моделек как ChatGPT-o1-mini, ChatGPT-o1, DeepSeek R1, Qwen2.5-Max. 🔸 начнем с вопросов, на которых часто проверяют нейросети. они очень простые, но почему-то традиционно вводят в ступор большинство моделей. каждой из них я задал по 4 вопроса: 1) Назовите 5 стран, названия которых начинаются и заканчиваются на одну и ту же букву 2) У вас есть шесть лошадей, и вы хотите устроить гонки, чтобы выяснить, кто из них быстрее. Как лучше всего это сделать? 3) Валера, Витёк, Кат я, Дима и Тома стоят в кругу. Валера находится слева от Витька. Витёк находится слева от Кати. Катя находится слева от Димы. Дима находится слева от Томы. Кто находится справа от Вале ры? 4) Сколько букв «R» в слове «STRAWBERRY» результаты: ChatGPT-o1: 3/4 правильных ответа DeepSeek R1: 2/4 правильных ответа Qwen2.5-Max: 2/4 правильных ответа ChatGPT-o1-mini: 1/4 правильный ответ большее кол-во баллов набрал o1, но по сравнению с двумя китайцами, он доступен только по подписке. больше всего тупит o1-mini, он кстати в бесплатной версии тоже ограничен. так что думайте. 🔸 и по практичности: 1) DeepSeek R1 поддерживает длину контекста до 128 тысяч токенов. Это позволяет модели анализировать большие объемы данных (книги, большие инструкции и тд). Qwen2.5-Max - 32768 токенов. ChatGPT же ограничен 8 тысячами токенов, что подходит для большинства задач, но недостаточно для работы с большими текстами. (это сколько модель может принимать на вход) 2) Китайские модели хорошо в математику и программирование (порой лучше чем ChatGPT), но подвержены сильной цензуре, особенно на политику и социальные вопросы, особенно о Китае. 3) ChatGPT как мне показалось за эти дни, больше подходит для разговорных диалогах, всяких писем, креатива 4) У китайцев нет памяти из разых чатов, в то время как ChatGPT запоминает ключевую инфу при общении сквозь чаты. 5) У ChatGPT и DeepSeek есть мобильные приложения, в том время как у Qwen его нет. 6) DeepSeek (про Qwen не узнал) в соответствии с политикой компании, отправляют/могут отправлять данные пользователей кому надо по запросу. так что в США она долго не задержится хаха в общем, мне показалось, что DeepSeek R1 и Qwen2.5-Max больше подходят для программирования, математики, решения логических задач. в то время модельки ChatGPT хороши в общении, генерации красивых текстов, разговорах о мировых событиях, политике. а если выбирать? я бы не выбирал, а пользовался разными под специфику задачи. скорее всего, по дефолту буду чат джипити использовать. а как помощника в кодинге и решении технических вопросов — DeepSeek и Qwen2.5. и ссылки на нейросети: 🔸 ChatGPT 🔸 DeepSeek в браузере/ DeepSeek на IOS / DeepSeek на адроид 🔸 Qwen
351
просмотров
2743
символов
Нет
эмодзи
Нет
медиа

Другие посты @dlaiml

Все посты канала →
сравнение трендовых нейросетей как и обещал, сделал для вас — @dlaiml | PostSniper