Я
я обучала одну модель
@def_model_train4.6K подп.
8.4Kпросмотров
12 марта 2026 г.
Score: 9.3K
За неделю вышло несколько интересных новостей на стыке ML и нейробиологии: я про эксперимент, где мозг мухи загрузили в матрицу, и про CorticalLabs, которые вырастили 200 000 человеческих нейронов, обучили их играть в Doom, а теперь еще кто-то подключил эти нейроны к LLM, где они коллективно решают, какое слово дальше выбрать Но мне попалась еще новость от MIT про то, что в мозге мышей обнаружили бэкпроп. Если точнее, что конкретные нейроны получают индивидуальные сигналы ошибки во время обучения, таким же образом, как обучаются веса моделей До этого уже было понятно, что активность мозга в разных его областях меняется во время обучения, но проследить за сигналом, поступающим к конкретным нейронам, сложно, потому что тогда надо заранее знать куда смотреть: то есть знать, какие нейроны должны усилить активность, а какие снизить в ответ на что-то Здесь в экперименте мозг мыши подключили к BCI и смотрели на конкретные 8-10 каких-нибудь нейронов. Перед мышью вешали паттерн с полосками (решетку Габора) под случайным углом, и мыши надо было силой мысли ее повернуть до 90°. Угол решетки управлялся напрямую разницей активности между двумя группами нейронов: если P+ нейроны активнее, решетка крутится по часовой, P− нейроны активнее, то против часовой. За успех мыши давали сахар ☺️ И на удивление они действительно смогли за неделю научиться поворачивать картинку (что на мой взгляд уже достаточно удивительно....) Дальше авторы смотрели на дендриты этих нейронов во время обучения, и обнаружили, что нейроны, которым "нужно" было активироваться, получали один сигнал, а те, которым нужно было приостановить активность – противоположный. Когда дендритные сигналы подавляли специально, мыши переставали обучаться Единственное что, в отличие от бэкпропа в ML, здесь сложно понять, откуда пропагируются ошибки: условно вычисляются они на том же "слое", где нужно что-то обновить, или они действительно перетекают из какой-то другой области мозга Когда я прочитала заголовок этой новости, то сразу вспомнила, как нам объясняли бэкпроп на моем первом курсе по ML. Тогда нам говорили, что это чисто инженерно-математическое решение, и какой-то интуитивной интерпретации, связанной с тем, как происходит обучение у людей, тут нет. Удивительно, что всего через несколько лет после этого кажется находятся подтверждения, что такая связь есть 🙃
8.4K
просмотров
2356
символов
Да
эмодзи
Нет
медиа

Другие посты @def_model_train

Все посты канала →
За неделю вышло несколько интересных новостей на стыке ML и — @def_model_train | PostSniper