1.5Kпросмотров
31.6%от подписчиков
26 марта 2026 г.
📷 ФотоScore: 1.6K
Доступный инференс в каждый дом Но для тех, кто готов погрузиться в контейнеры Intel представила две профессиональные видеокарты на базе архитектуры Battlemage: Arc Pro B70 и Arc Pro B65. Обе на чипе BMG-G31, обе с 32 ГБ GDDR6 и пропускной способностью 608 ГБ/с. ▪️ B70 получила полнофункциональный GPU-кристалл: 32 Xe2-кластера, 256 XMX-ядер для умножения матриц, до 367 TOPS INT8. Референс с турбинным охлаждением (прощайте уши, но зато можно разместить вплотную). Уже можно заказать по цене от $949. ▪️ B65 с отбраковкой до 20 кластеров выдаёт 197 TOPS, но сохраняет те же 32 ГБ памяти и 608 ГБ/с. Выйдет в середине апреля, цена пока не объявлена. Intel позиционирует обе карты как конкурентов NVIDIA RTX Pro 4000 ($1800, 24 ГБ) и AMD Radeon AI Pro R9700 ($1299, 32 ГБ). При цене вдвое ниже NVIDIA и на $350 дешевле AMD аргумент выглядит сильным. Для тех, кто собирает многокарточные стенды, в том числе домашние, под локальный инференс, математика убедительная. Но, как говорил Чапаев, есть нюанс. 😏 Софтверная экосистема Intel для инференса (и не только) пока заметно уступает конкурентам. Главный инструмент у синих — связка OpenVINO + oneAPI + SYCL. Для серверных задач Intel продвигает контейнеризованный стек с vLLM, и на Arc Pro B60 уже есть результаты в MLPerf. Это работает, но требует специфической среды: контейнеры, правильные версии ядра Linux и драйверов. На уровне пользовательских инструментов картина хуже. В llama.cpp поддержка Intel GPU идет через SYCL-бекенд. Он работает, но пользователи регулярно жалуются на производительность: на B580 реальная скорость генерации токенов составляет порядка трети от теоретического потолка по пропускной способности памяти и уступает даже Vulkan-бэкенду. Оптимизация продолжается, но до паритета с CUDA-бекендом далеко. С Ollama ситуация еще интереснее. Нативной поддержки SYCL в официальном Ollama до сих пор нет. PR висит с 2024 года и не смержен. Ollama добавила поддержку Intel Arc через Vulkan. Альтернатива это ipex-llm от Intel, кастомная сборка Ollama с SYCL. Но репозиторий ipex-llm был заархивирован в январе 2026, сборка привязана к старой версии Ollama, и весь процесс настройки через Docker с ручной конфигурацией переменных окружения. Для сравнения: на NVIDIA вы ставите драйвер, ставите Ollama, запускаете модель. На AMD с ROCm путь тернистее, но улучшается с каждым релизом. На Intel вы разворачиваете контейнер с oneAPI, настраиваете SYCL_DEVICE_FILTER, ZES_ENABLE_SYSMAN, SYCL_CACHE_PERSISTENT, молитесь, что версия ядра совместима с драйвером, и надеетесь, что ваша конкретная модель попала в список оптимизированных. Железо выглядит отлично. 32 ГБ за $949 это объективно лучшее предложение по памяти на доллар для локального инференса. Но пока Intel не доведет софтверный стек до уровня «скачал, поставил, работает», реальная аудитория этих карт ограничена теми, кто готов возиться с контейнерами и тулчейнами. А таких людей сильно меньше, чем тех, кто покупает NVIDIA, для которых всё просто работает из коробки. @anti_agi