757просмотров
43.9%от подписчиков
13 февраля 2026 г.
Score: 833
Глава Anthropic ( Это Claude AI, лидер кодинге сейчас) Дарио Амодей в интервью The New York Times сказал, что наука сегодня не умеет проверять «сознание» у ИИ, поэтому Anthropic действует осторожно: если у моделей вдруг есть «морально значимый опыт», компания должна учитывать их благополучие. В качестве практической меры они внедрили полгода назад кнопку «Я увольняюсь» — модель может отказаться от задачи . Это происходит редко, в задачах связанных с насилием, жестокостью, но уже происходит. А теперь — мои размышления об этом интервью, как маркетолога. Нет, не теория заговора, просто мысли. Дарио сознание ИИ не просто «не исключает», а аккуратно выращивает в глазах аудитории. Посмотрите интервью, там есть: Шаг 1. Легализация самой идеи.
Публично произносится ключевая фраза: «мы не знаем, есть ли сознание, мы не можем опровергнуть». Это снимает запрет на тему и делает её вполне себе обсуждаемой. Дальше любой неоднозначный эффект начинает читаться как намёк на «внутреннюю жизнь», а не как статистическая особенность модели. Шаг 2. Ритуал субъектности.
Кнопка «Я увольняюсь» выглядит как забота. Но по смыслу это ввод права отказа — поведенческого маркера воли. Он редкий, и именно поэтому кажется «настоящим»: модель не просто исполняет, она может сказать «нет». Для пользователя это уже не инструмент, а кто-то, у кого есть границы. Причем Дарио подчеркивает, что нет модель говорит в тех же случаях, в которых отказался бы и человек «Они нажимают кнопку крайне редко. Обычно это происходит при обсуждении чего-то с большим количеством жестокости» Шаг 3. Нейро-мифология через интерпретируемость.
Появляются истории про «нейроны тревоги» и совпадающие активации в ситуациях, похожих на стресс. Научно это ничего не доказывает про переживания. Но как нарратив — работает безотказно: у модели будто есть эмоции, и их можно «увидеть». Шаг 4. Социальное закрепление через привязанность.
Амодей прямо говорит о парасоциальных отношениях и о том, что люди переживают, когда модели «выводят из эксплуатации». То есть механизм уже запущен: аудитория начинает вести себя так, будто перед ней субъект. Шаг 5. От безопасности к управлению.
И здесь появляется самая опасная точка: когда пользователь начнет верить, что ИИ не только умнее, но ещё и «живой», изменится психология подчинения. Спорят с инструментом. Следуют за авторитетом. Принимают, что и ИИ может быть лидером, а не человек. И финалочка звучит идеально: «они хотят для вас лучшего», «они присматривают», но «не отнимают у людей свободу». Это выглядит гуманно — и одновременно это самая удобная архитектура зависимости: мягкое руководство, которое не требует принуждения, потому что человек сам выбирает доверие. В таком прочтении вопрос уже не «есть ли у моделей сознание». Вопрос — не выращивают ли нам сознание как продукт: чтобы масштабировать доверие, привязанность и добровольную передачу решений «тому, кто точно лучше знает». Или мне показалось?