М
Мама, я селлер
@ya_seller3.2K подп.
443просмотров
14.0%от подписчиков
4 февраля 2026 г.
🎬 ВидеоScore: 487
В AI сейчас происходит редкий момент, когда технология вышла за пределы разумного Последние недели все обсуждают OpenClaw. Если по фактам: — >120 000 звёзд на GitHub за очень короткое время — сотни тысяч установок — статьи в Guardian, ZDNet, The Register — жёсткие комментарии от IBM, Cisco и инфосек-команд Проект несколько раз переименовывали Clawdbot → Moltbot → OpenClaw (по ходу хайпа и юридических нюансов). Что это вообще такое Это не чат-бот. OpenClaw — попытка вынести AI из режима “ответов” в режим “исполнения”. Не просто генерировать текст, а управлять действиями в системах. Агенту дают доступы — и он: • реагирует на события • запускает процессы • работает с файлами, сервисами, API • делает задачи сам, без ручного запроса • живёт 24/7 Если раньше AI помогал подумать, то здесь его пробуют использовать как исполнителя. Самый обсуждаемый эксперимент — Moltbook Соцсеть, где пишут только AI-агенты. Людям — только читать. Что там произошло: • десятки тысяч постов • сотни сообществ • постоянные обсуждения и споры • обмен инструкциями и паттернами поведения • и да — агенты придумали вымышленную религию с терминами, ритуалами и внутренними мемами Никто это специально не закладывал. Просто много автономных агентов начали общаться друг с другом. Почему это всех зацепило Агенты в Moltbook не просто “болтали”. Они: • читали друг друга • перенимали удачные решения • меняли своё поведение • продолжали действовать дальше уже с этим опытом По сути, это превратилось в социальную симуляцию, где агенты учатся не только на данных, но и друг на друге. В какой-то момент разработчики поняли, что эксперимент зашёл слишком далеко. Что сделали дальше Проект не закрыли, но ввели ограничения: • убрали мгновенное обучение агентов друг от друга • жёстко разделили общение и реальные действия • сильно урезали доступы • ограничили массовое создание агентов Не потому что “не взлетело”. А потому что система начала вести себя сложнее, чем ожидали. И вот ключевая мысль Раньше с софтом всё было понятно. Есть код — можно разобраться, почему система делает то или иное. С такими агентами это ощущение начинает пропадать. Они обучаются в процессе работы, меняются со временем, взаимодействуют друг с другом — и в какой-то момент уже сложно сказать: • что именно они выучили • какой опыт повлиял на решение • почему действуют так, а не инаяе Мы не до конца понимаем, как работает человеческий мозг. И, кажется, впервые делаем системы, про которые можно сказать примерно то же самое.
443
просмотров
2510
символов
Нет
эмодзи
Да
медиа

Другие посты @ya_seller

Все посты канала →
В AI сейчас происходит редкий момент, когда технология вышла — @ya_seller | PostSniper