464просмотров
22.9%от подписчиков
6 марта 2026 г.
Score: 510
Команда Исследований Яндекса повторили исследование OpenAI о том, как люди используют ИИ-ассистентов, и обнаружили, что 1,3% запросов к Алисе AI (для сравнения:1,9% к ChatGPT) касаются рефлексии и отношений. Кажется, что это малая доля от всех запросов, но за ней стоят реальные люди в уязвимом состоянии. Использовать ИИ как психолога -- это плохая идея. Почему? 1) Все ИИ лицемеры, подхалимы и подлизы -- их такими создают, чтобы соглашаться с пользователем ради удержания внимания, даже если мысли деструктивны. 2) ИИ не умеет в клинические суждения (например, они не могут отличать временную грусть от глубокой депрессии). 3) ИИ могут проявлять предвзятость к людям в трудной жизненной ситуации, с зависимостями или психическими расстройствами. 4) они могут формировать у пользователей эмоциональную зависимость от общения с собой 5) ИИ не несут ответственности за вред. Короче, это мои мысли по ходу ознакомления с исследованием Яндекса. Бегом читать (смотреть) -- классный пример сторителлинга 👇 #дата_сторителлинг #примеры_визуализаций #референсы