Neuralink выкатил отчёт за два года Telepathy. 21 участник. 15,000+ часов использования. Некоторые уже превышают скорость обычного пользователя мыши (8-10 BPS) чисто мыслями. Sebastian, 23-летний медстудент, сидит на импланте по 17 часов в день для учёбы. Восстановление речи уже работает: пациенты с ALS набирают 40 WPM через imagined finger movements. Запущен отдельный trial VOICE с целью 140 WPM, скорость обычного разговора. Управление роботом тоже продемонстрировано, Alex управлял рукой Tesla ...
the last neural cell
we write about BCI, AI and brain research. authors: @kovalev_alvi - visual neural interfaces at UMH, Spain | Co-Founder of ALVI Labs @Altime - comp neuro phd @ GTC Tübingen Our chat: @neural_cell_chat
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
14 из 14The most tasty neuro papers in 2025 Мой личный, абсолютно субъективный список лучших статей по нейро-декодингу за 2025 год. Тренд года: кидай больше данных и молись чтобы стало лучше. Но главный вопрос по-прежнему в том, как объединить данные между животными, областями мозга и типами электродов в одной модели. Разбил 10 статей на 4 секции: инвазивные сигналы, неинвазивные, нейро софт и напоследок принес статью из нашей лабы (я не соавтор, работа началась ещё до меня). 01. Invasive signals ▸ Foun...
Впечатление от AAAI 26. Я съездил на свою первую AI конференцию. Показывал нашу работу над визуальными имплантами на воркшопе AI for Neuro, общался с кучей людей, слушал доклады. Расскажу, как это было. После года в Эльче (маленький город на юге Испании) Сингапур впечатляет. Всё сверкает, всё большое. Но за углом от небоскрёбов Hawker Center и Chinatown: грязно, шумно, вкусно. Еда отличная, погода с постоянными 30 градусами. Конференция Почти 5000 принятых статей. Огромные ангары с постерами, по...
Что происходит в LLM. Февраль 2026 Несмотря на то, что LLM — главный хайп последних 2 лет, вокруг больших моделей остаётся много путаницы и заблуждений. Чем отличаются модели? Надо ли доучивать модель? Хостить или ходить по API? На что можно рассчитывать при построении агента или RAG-системы? Почему у кого-то работают RAG и агенты, а кто-то вовсе в них разочаровался? Deepschool ответит на эти и другие вопросы на онлайн-лекции в четверг! За полтора часа вы получите актуальный срез индустрии вокру...
#AAAI2026 На устных докладах сегодня порадовала сессия по воплощенному ИИ – целый набор разны VLA моделей: 1) SemanticVLA: Semantic-Aligned Sparsification and Enhancement for Efficient Robotic Manipulation – агрегация геометрических признаков в токены для DINOv2, иерархическое объеднение признаков от SigLIP и DINOv2, семантический актор. 2) ReconVLA: Reconstructive Vision-Language-Action Model as Effective Robot Perceiver – если помните получила Best Paper Award с простой идеей генерировать спец...
Helix 02: Full-Body Autonomy А вот собственно пример с реально круто работающей VLA от figure Blog : https://www.figure.ai/news/helix-02 Video: Мой любимый момент 2:51, где робот тазом закрывает шкафчик https://youtu.be/lQsvTrRTBRs?si=W0SmW6WNDRRxJBTB
Рад поделиться тем, что у команды частью которой Я являюсь, на HuggingFace вышел ТехРепорт по VLA, которая работает на разных роботах в том числе и нашем антропоморфном роботе - Грине (не китайском!). Если вкратце: за последний год стало ясно, что просто «навалить данных» уже не помогает. Чтобы робот перестал тупить в реальных задачах, нужно копать в сторону качества, переносимости между воплощениями и адаптацией в реальном мире Что в отчете: Выстроили многоуровневый пайплайн обучения: VLM (L0) ...
tasty aaai-26 papers 🔹 MindSight: Bio-Inspired Neural Architecture for Visual Restoration via Cortical Electrical Stimulation tl;dr: система учится генерировать паттерны напряжений на электродах чтобы создавать нужные зрительные образы через стимуляцию коры. Протестировано на реальных макаках. Запись с 1280 каналов V1, декодирование из 50мс окон MUA, предсказание тока на каждый электрод. Два пути обучения: через MUA декодер и через симулятор фосфенов. Минимум 16 каналов должны активироваться вм...
Давайте поддержим ребят, они делают крутого робота гуманоида Грин! Так ещё и рассказали как они его обучали!
Foundation model как рабочий инструмент #neuro #ai Публикация: Wang, E. Y., Fahey, P. G., Ding, Z., Papadopoulos, S., Ponder, K., Weis, M. A., ... & Tolias, A. S. (2025). Foundation model of neural activity predicts response to new stimulus types. Nature, 640(8058), 470-477. В предыдущем посте я писала, что большинство foundation models для ЭЭГ/МЭГ пока что застряли на уровне робкого технологического эксперимента. В этом же посте предлагаю рассмотреть пример качественно иной результативности исп...