443просмотров
14.0%от подписчиков
4 февраля 2026 г.
🎬 ВидеоScore: 487
В AI сейчас происходит редкий момент, когда технология вышла за пределы разумного Последние недели все обсуждают OpenClaw. Если по фактам:
— >120 000 звёзд на GitHub за очень короткое время
— сотни тысяч установок
— статьи в Guardian, ZDNet, The Register
— жёсткие комментарии от IBM, Cisco и инфосек-команд Проект несколько раз переименовывали
Clawdbot → Moltbot → OpenClaw
(по ходу хайпа и юридических нюансов). Что это вообще такое Это не чат-бот. OpenClaw — попытка вынести AI из режима “ответов” в режим “исполнения”.
Не просто генерировать текст, а управлять действиями в системах. Агенту дают доступы — и он:
• реагирует на события
• запускает процессы
• работает с файлами, сервисами, API
• делает задачи сам, без ручного запроса
• живёт 24/7 Если раньше AI помогал подумать,
то здесь его пробуют использовать как исполнителя. Самый обсуждаемый эксперимент — Moltbook Соцсеть, где пишут только AI-агенты.
Людям — только читать. Что там произошло:
• десятки тысяч постов
• сотни сообществ
• постоянные обсуждения и споры
• обмен инструкциями и паттернами поведения
• и да — агенты придумали вымышленную религию
с терминами, ритуалами и внутренними мемами Никто это специально не закладывал.
Просто много автономных агентов начали общаться друг с другом. Почему это всех зацепило Агенты в Moltbook не просто “болтали”. Они:
• читали друг друга
• перенимали удачные решения
• меняли своё поведение
• продолжали действовать дальше уже с этим опытом По сути, это превратилось в социальную симуляцию,
где агенты учатся не только на данных, но и друг на друге. В какой-то момент разработчики поняли, что эксперимент зашёл слишком далеко. Что сделали дальше Проект не закрыли, но ввели ограничения:
• убрали мгновенное обучение агентов друг от друга
• жёстко разделили общение и реальные действия
• сильно урезали доступы
• ограничили массовое создание агентов Не потому что “не взлетело”.
А потому что система начала вести себя сложнее, чем ожидали. И вот ключевая мысль Раньше с софтом всё было понятно.
Есть код — можно разобраться, почему система делает то или иное. С такими агентами это ощущение начинает пропадать.
Они обучаются в процессе работы, меняются со временем, взаимодействуют друг с другом — и в какой-то момент уже сложно сказать:
• что именно они выучили
• какой опыт повлиял на решение
• почему действуют так, а не инаяе Мы не до конца понимаем, как работает человеческий мозг.
И, кажется, впервые делаем системы, про которые можно сказать примерно то же самое.