N
NextGen AI
@NextGen_AI_15.8K подп.
12просмотров
0.2%от подписчиков
20 марта 2026 г.
statsScore: 13
F2LLM-v2: 200 языков, один эмбеддинг Вышло семейство open-source моделей, которые превращают текст на любом из 200+ языков в векторы одинакового качества. От малайзийского диалекта до редких африканских языков — всё работает без доработки. Что это значит на практике: можно строить поиск и RAG-системы для локальных рынков без армии переводчиков и отдельных датасетов. Технический барьер входа на новые языки падает в разы. Модели доступны в 8 размерах — от 80M до 14B параметров. Лидируют на 11 бенчмарках MTEB. Matryoshka learning позволяет сжимать эмбеддинги без переобучения под конкретные задачи. Вопрос: какие продукты вы бы запустили, если бы языковой барьер перестал быть проблемой? Источники: arXiv, MTEB Leaderboard
12
просмотров
730
символов
Нет
эмодзи
Нет
медиа

Другие посты @NextGen_AI_1

Все посты канала →
F2LLM-v2: 200 языков, один эмбеддинг Вышло семейство open-so — @NextGen_AI_1 | PostSniper