Dynamic Chunking for End-to-End Hierarchical Sequence Modeling меня упомянул Борис среди классных каналов, считаю своего рода успехом. более того, я был удостоен чести, что ко мне единственному придрались - по мне тоже ачивка ❤️ - за отсутствие заглавных букв Ну, что ж..🤩 Вопрос токенизации для языковых (и не только) моделей стал более популярным после выхода Byte Latent Transformer (BLT), где токены заменялись на семантические “патчи”, которые разделялись предиктами отдельной модели (она предс...
rizzearch
Кайфули на каждый день Авторы: @zzmtsvv @maxnygma (AI4Science посты)
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
4 из 4SRT-H: A Hierarchical Framework for Autonomous Surgery via Language Conditioned Imitation Learning команда из Стенфорда и Джона Хопкинса продолжают масштабирование делать робота для хирургических операций на базе трансформера сейчас авторы в бОльшей степени конкретизировали задачу - удаление желчного пузыря (холецистэктомия) через формализацию в общей сложности 17 таск (захват желчного пузыря, клипсы, разрези для протока и артерии) а масштабирование пайплайна же состоит в добавлении иерархичност...
К нам часто поступают запросы на темы для курсовых, дипломных или сайд-проектов вне рамок стажировки или устройства к нам в коллектив. Поэтому мы выделили это в отдельную программу, ☀️ sun city, она предназначена для взаимодействий такого рода. Resident Research Scientist — AI4Science Вы будете заниматься написанием статей на top-tier конференции (NeurIPS, ICLR, ICML), проводить эксперименты и предлагать новые исследовательские идеи. Чем предстоит заняться? - Постановка экспериментов и напи...
π∗0.6: a VLA That Learns From Experience Давно меня не было😚😚😚 В последний раз про pi.website я писал, когда они сделали инпеинтинг для VLA с флоу матчингом (они уже успели и сделать его по классическому рецепту, обучаясь в inpainting-aware стиле). теперь же они над pi05 нафигачили то, что назвали pi06* (под звездочкой имеется в виду оффлайн рл) Ну и скорее они надстроили не над pi05, а над pi06, где отличий немного (и мало деталей) - гемма2 → гемма3 4B в качестве влм бекбона - больше по пара...