295просмотров
22.8%от подписчиков
6 марта 2026 г.
📷 ФотоScore: 325
Почему ChatGPT не может быть терапевтом Клиенты часто ошибочно предполагают: "Главное, чтобы меня выслушали, и все пройдет". Цифровая эпоха предложила быстрый способ получить желаемое – завязать разговор с чат-ботом. Однако недавнее исследование, проведённое в Brown University, показывает: внешнее сходство с психотерапевтическим диалогом не означает наличия самой психотерапии. Исследователи проанализировали ситуации, в которых люди используют большие языковые модели в качестве "терапевтов". Предварительно они получали инструкции отвечать в стиле психотерапевтических подходов. Например, когнитивно-поведенческой терапии. Затем диалоги оценивали лицензированные клинические психологи. В результате авторы исследования обнаружили 15 существенных этических рисков в работе "ИИ-терапевтов". 💡 Отдельный феномен получил название "Обманчивая эмпатия". Модель использует фразы вроде "я понимаю" или "мне жаль, что вам так тяжело", которые создают впечатление эмоционального отклика. Но за ними не стоит субъективное переживание, способное выдерживать напряжение отношений. 🧠 С психоаналитической точки зрения это различие принципиально. Терапевтический процесс строится не только на словах. Его основа – это отношения между двумя психиками, в ходе развития которых возникают перенос, контрперенос, бессознательные ожидания и страхи. Такая живая динамика помогает распознавать и перерабатывать переживания. Алгоритм может воспроизводить форму диалога, но не способен занимать позицию субъекта внутри отношений. Поэтому исследователи подчеркивают: технологии потенциально могут расширять доступ к поддержке, но их использование в терапевтических целях требует серьёзных этических и профессиональных ограничений. Ставьте ♥️, если интересно. Расскажу о 15 этических рисках, с которыми можно столкнуться при обращении к "ИИ-терапевту" #ИИ #исследования