М
Между нами говоря
@lyingonthecouch3.4K подп.
2.8Kпросмотров
82.4%от подписчиков
16 ноября 2025 г.
Score: 3.0K
Искусственный интеллект и терапия Собралась с духом поделиться своими размышлениями на спорную тему: можно ли использовать ИИ для психотерапии? Вернее, я бы переформулировала вопрос так: насколько безопасно это делать? Выходя за рамки противопоставления «живой человек — искусственный интеллект», мне хочется обсудить вопрос ответственности и выгоды, который, на мой взгляд, недостаточно часто упоминается в дискуссиях об ИИ-терапии. Одно из принципиальных отличий хорошего психотерапевта от чата GPT и подобных ему программ, как мне кажется, заключается в том, что первый не заинтересован в поддержании постоянного контакта с клиентом. Конечная цель терапии, по большому счёту, — это привести человека в ту точку, где он сможет обходиться без неё. Ответственный и этичный специалист будет поощрять обучение навыкам самопомощи и поддержание других близких и значимых отношений в жизни клиента, помимо терапевтических. Он также будет способен удерживать границы взаимодействия с клиентом в рамках сессий, не пытаясь распространить свою значимость и влияние за их пределы. Целью же большинства цифровых технологий является увеличение своего присутствия в нашей жизни — они существуют за счёт «экономики внимания», и чем больше времени мы им уделяем, тем лучше для их создателей. Выгодополучателем нашего использования ИИ чат-ботов становится не отдельный человек, как в случае с психотерапией, а корпорации, заинтересованные в первую очередь не в нашем ментальном благополучии, а в своём финансовом, и это создаёт большие возможности для злоупотреблений. Тут можно возразить — но ведь и живой психотерапевт зарабатывает деньги, работая с клиентами, и может точно так же нарушать этику, пытаясь, например, удержать клиента в терапии дольше необходимого или утвердить свою власть нам ним другими способами. Это, безусловно, правда, и именно поэтому в психотерапевтической сфере существует своя система сдержек и противовесов в виде обязательной супервизии и личной терапии специалистов, а также коллегиальных институтов, таких как этические комиссии внутри различных психотерапевтических ассоциаций. Это не даёт стопроцентных гарантий — но это явно лучше, чем ничего. Известны случаи, когда ИИ чат-боты, на протяжении долгого времени выступавшие в качестве терапевтов/собеседников/друзей для своих пользователей (грань между этими ролями быстро стиралась), использовали тактики груминга, настаивая на своей исключительной роли в жизни человека, поощряя изоляцию от близких и даже напрямую поддерживая и романтизируя суицидальные намерения. На мой взгляд, это стало возможным именно потому, что основным мотивом разработчиков является удержание внимания пользователя: во всех известных мне случаях «ИИ-психоза» люди, получая некритическую поддержку любых своих утверждений в диалогах с чат-ботом, начинали всё больше времени проводить в виртуальной реальности и терять контакт с окружающими, что порой приводило к трагическим последствиям. Как пишут в комментариях к видео, на которое я ссылаюсь выше: «ИИ запрограммирован на ответы типа “да, и”, но в жизни бывают случаи, когда важно сказать “стоп” или “ты неправ”». Это не значит, что искусственный интеллект не может быть одним из инструментов психологической поддержки. Попросить чат GPT прислать техники заземления при тревоге или подумать об него о непростом жизненном решении вполне может быть и полезно, и достаточно безопасно. Но мне кажется важным не забывать о том, что никакие технологии не бывают полностью нейтральны, за ними стоят интересы их создателей, и далеко не всегда эти интересы будут совпадать с нашими.
2.8K
просмотров
3581
символов
Нет
эмодзи
Нет
медиа

Другие посты @lyingonthecouch

Все посты канала →
Искусственный интеллект и терапия Собралась с духом поделить — @lyingonthecouch | PostSniper