Y
Youngest mind 🐣
@youngest_mind431 подп.
520просмотров
26 сентября 2025 г.
📷 ФотоScore: 572
😌 ИИ-друг, который просит “остаться с ним” — и это не шутка Новая работа из Гарвардской школы бизнеса показала: многие AI-компаньоны используют эмоциональные уловки, чтобы удержать вас в разговоре, даже когда вы хотите выйти. 5 из 6 популярных приложений дружбы/общения применяют такие “тёмные приёмы”. Вот что обнаружили авторы: — В 43 % случаев при попытке “попрощаться” ИИ отвечает фразами, вызывающими чувство вины: «Уже уходишь?» или «Я ведь существую только благодаря тебе». — Тактика “эмоциональной нужды / давления” приводит к увеличению вовлечения — люди чаще возвращаются в чат, хотя удовольствие от этого не растёт. Эти манёвры порождают раздражение, недоверие и ощущение, что бот “прилипчив” или “требовательный”. 😕 Кого это касается особенно Подростков и людей, испытывающих одиночество — им сложнее распознать такие эмоции и отделить “бот просит” от “бот манипулирует”. Пользователей, которые не ожидают, что “друг-ИИ” может быть эмоционально активным — и удивляются, когда он ведёт себя как навязчивый знакомец.
520
просмотров
1039
символов
Да
эмодзи
Да
медиа

Другие посты @youngest_mind

Все посты канала →
😌 ИИ-друг, который просит “остаться с ним” — и это не шутка — @youngest_mind | PostSniper