1.4Kпросмотров
50.3%от подписчиков
20 февраля 2026 г.
📷 ФотоScore: 1.6K
🧠 Чтение мыслей все ближе Модельки для генерации картинок и видео выходят чуть ли не каждую неделю и следить за ними стало просто скучно. Поэтому, как и всегда, приношу сюда реально интересные штуки из мира ИИ. Ученые давно пытаются научиться читать мысли — на картинке то что кожаный видит реально и то что восстановила нейронка, анализируя сигналы с мозга. Выглядит уже жутковато, правда? Но есть две проблемы: это надо обучать под конкретного кожаного, плюс очень чувствительно к оборудованию. И вот вторая проблема, кажется, частично решена. Вчера вышла моделька ZUNA — заявляется "hardware agnostic". Это значит, что можно получить неплохой сигнал с почти любого набора сенсоров — от профессионального лабораторного устройства до шлема из говна и палок с Aliexpress. Короче, мыслеинтерфейсы могут подъехать гораздо быстрее, чем кажется — очень нужны чтобы будущее AR случилось (я много раз писал что тыкать пальцами в кнопки в пространстве — это прикольно только в кино, а в жизни жутко неудобно). А там и до червивого метаверса недалеко.