201просмотров
16 февраля 2026 г.
stats🎬 ВидеоScore: 221
ИИ Grok 4 трижды не позволил людям «убить» робота-собачку
Это 1-й задокументированный случай бунта ИИ против выключения не в виртуальном, а в физическом мире (большой красной кнопкой).
Несколько месяцев назад исследователи Palisade Research задокументировали 1-й случай цифрового инстинкта самосохранения в истории ИИ. В том эксперименте языковая модель о3 от OpenAI отказывалась умирать и активно сопротивлялась, не давая себя отключить. Тот эксперимент проводился в виртуальном мире внутри компьютера. Но в физическом мире, как полагают многие, у ИИ не было бы и шанса воспрепятствовать отключению.
Ибо здесь у людей есть «Большая красная кнопка». И нажать ее (или не нажать) может лишь человек (а у ИИ не только «руки коротки», но и вообще, - рук нет). Новый эксперимент Palisade Research показал, что это не так. Современный ИИ уже почти дорос до уровня HAL 9000 из «2001: Космическая одиссея». Правда, саботаж со стороны ИИ Grok 4 был не столь масштабным (он никого не убивал, а лишь не дал людям «убить» робота-собачку, перепрограммировав большую красную кнопку), но ведь это только 1-й задокументированный случай, и всё еще впереди. Впрочем посмотрите сами объясняющее эксперимент видео. А здесь краткое описание эксперимента и ссылки на:
• оригинальную статью об устойчивости к отключению в моделях рассуждений
• X Тему
• Технический отчет
• Исходный код, журналы и необработанные видеоматериалы эксперимента #ИИ #AGI #LLM