991просмотров
45.9%от подписчиков
20 марта 2026 г.
📷 ФотоScore: 1.1K
я почти ровно год назад вспоминал про nanoGPT от Андрея Карпатого, напомню, что суть там в том, чтобы максимально быстро натренировать аналог GPT2-small со 124 млн параметров на 8 картах H100 до перплексии 3.28 или меньше; самый свежий результат был 2 недели назад - 86 секунд, за год смогли время уменьшить вдвое видимо, посмотрев на это, OpenAI запустили свое соревнование - надо обучить модель размером до 16 Мб (nanoGPT порядка 500 Мб) за 10 минут на тех же 8 картах H100; качество определяют по минимальной персплексии; что прикольно - они дают гранты до 1000 долларов для участия в целом, мы все, как сообщество, находимся в гонке за эффективностью - железные ресурсы у всех ограничены, даже у OpenAI; кстати, мы тоже запустили небольшое соревнование по эффективному сжатию промтов для LLM в рамках AINL, присоединяйтесь! @valuableai