M
MainHero lab
@mainherolab182 подп.
201просмотров
16 февраля 2026 г.
stats🎬 ВидеоScore: 221
ИИ Grok 4 трижды не позволил людям «убить» робота-собачку Это 1-й задокументированный случай бунта ИИ против выключения не в виртуальном, а в физическом мире (большой красной кнопкой). Несколько месяцев назад исследователи Palisade Research задокументировали 1-й случай цифрового инстинкта самосохранения в истории ИИ. В том эксперименте языковая модель о3 от OpenAI отказывалась умирать и активно сопротивлялась, не давая себя отключить. Тот эксперимент проводился в виртуальном мире внутри компьютера. Но в физическом мире, как полагают многие, у ИИ не было бы и шанса воспрепятствовать отключению. Ибо здесь у людей есть «Большая красная кнопка». И нажать ее (или не нажать) может лишь человек (а у ИИ не только «руки коротки», но и вообще, - рук нет). Новый эксперимент Palisade Research показал, что это не так. Современный ИИ уже почти дорос до уровня HAL 9000 из «2001: Космическая одиссея». Правда, саботаж со стороны ИИ Grok 4 был не столь масштабным (он никого не убивал, а лишь не дал людям «убить» робота-собачку, перепрограммировав большую красную кнопку), но ведь это только 1-й задокументированный случай, и всё еще впереди. Впрочем посмотрите сами объясняющее эксперимент видео. А здесь краткое описание эксперимента и ссылки на: • оригинальную статью об устойчивости к отключению в моделях рассуждений • X Тему • Технический отчет • Исходный код, журналы и необработанные видеоматериалы эксперимента #ИИ #AGI #LLM
201
просмотров
1441
символов
Нет
эмодзи
Да
медиа

Другие посты @mainherolab

Все посты канала →
ИИ Grok 4 трижды не позволил людям «убить» робота-собачку Эт — @mainherolab | PostSniper