712просмотров
28 января 2026 г.
Score: 783
Trinity-Large-Preview Американский стартап Arcee-AI совместно с другими американскими стартапами Prime Intellect и Datalogy AI выпускают свою первую большую модель, обученную с нуля. - MoE, 398B-A13B. - Обучена на 17T токенов, поддерживает 11 языков, в том числе и русский, контекст 512 тысяч токенов. - Модель обучалась на 2048 видеокартах Nvidia B300. - Выпущены три чекпоинта: Istruct, Base (после midtrainig) и TrueBase (без midtraining). - На бенчмарках модель уступает Llama-4-Maverick, но это пока версия без особого RL - в релизном варианте производительность может быть лучше. - Лицензия Apache 2.0. Модель, техрепорт