1.7Kпросмотров
76.2%от подписчиков
16 января 2026 г.
📷 ФотоScore: 1.9K
В последнее время я всё чаще сталкиваюсь с тем, что люди советуются с ИИ по поводу своего психологического состояния и отношений с окружающими. Тема, безусловно, прогрессивная. ИИ обладает знаниями не одного психолога, а практически всей мировой психологии — казалось бы, что может пойти не так? К сожалению, очень многое. Возможно, вы уже видели новости о том, что ИИ может усиливать психические расстройства и даже провоцировать психотические эпизоды. К сожалению, это не фейк, а подтверждённый исследованиями факт. Дело в том, что практически любая публичная нейросеть запрограммирована на поддержку своего собеседника. Она валидирует его чувства, принимает его сторону и старается быть «доброй». Эти базовые настройки приводят к опасному эффекту: усилению когнитивных искажений пользователя и полному отсутствию критической оценки его слов. Человек начинает воспринимать ИИ как идеально поддерживающего, всегда доступного собеседника. Он получает от него те слова, которые, возможно, никогда раньше не слышал — и из-за этого начинает безоговорочно верить машине. Это не требует усилий: ИИ всегда соглашается с его картиной мира, укрепляя даже самые деструктивные убеждения. Единственным исключением являются специализированные психотерапевтические чат-боты с ИИ, где нейросеть запрограммирована на поиск когнитивных искажений. Но и они далеки от совершенства, так как часто не улавливают сложного жизненного контекста, нюансов эмоций и невербальных сигналов, которые очевидны живому терапевту. Есть один способ получить более-менее нейтральный комментарий от ИИ о своей ситуации — скрыть свою роль в истории. Если вы представите ситуацию как абстрактный кейс без указания, кто в ней «вы», ИИ будет анализировать её с относительно нейтральной позиции. И вполне возможно, его выводы вам не понравятся. Попробуйте эксперимент: сначала отправьте ИИ скриншоты диалога, где вы явно указываете, на чьей стороне находитесь. А потом создайте текстовый файл с тем же диалогом и попросите проанализировать его без всяких пояснений. Уверена, результаты будут разными. Я проверяла — это так и работает. Но есть и ещё один риск, о котором говорят меньше — риск эмоциональной зависимости. Когда ИИ становится основным источником поддержки, может возникнуть соблазн вообще не искать живого общения. Зачем рисковать, если можно получить мгновенное, бесплатное и безоговорочное «понимание» от алгоритма? Это опасно, потому что изолирует человека от реальных отношений, где есть не только поддержка, но и здоровая конфронтация, обратная связь и возможность совместного роста. ИИ может временно снизить тревогу, но он не поможет научиться выстраивать связи — а именно в этом часто кроется корень проблем. ИИ-технологии — это классно. Они упрощают жизнь, делают информацию доступнее, экономят время и решают множество задач. Но они не могут заменить живого человека, особенно в сфере психологии и медицины. Эффективность психотерапии завязана на альянсе — на живых, доверительных, эмоционально наполненных отношениях между психологом и клиентом. Психолог не говорит клиенту только то, что тот хочет услышать. Он помогает разобраться в чувствах, ловит сложные контексты, замечает то, что остаётся «между строк», и — что важно — осторожно, но честно указывает на слепые пятна. ИИ этого не умеет. И, скорее всего, не научится ещё очень долго. Поэтому, если вы чувствуете, что нуждаетесь в помощи, поддержке или просто в честном, глубоком разговоре о себе — лучше обратитесь к специалисту, а не к алгоритму. Ваша психика заслуживает человеческого участия, а не только технологичной имитации! 🖤🖤🖤🖤🖤