S
Sarkis thinkers place
@SarkisG490 подп.
117просмотров
23.9%от подписчиков
16 марта 2026 г.
questionScore: 129
Когда дети начинают доверять ИИ больше, чем людям, что могут сделать разработчики? Появляется всё больше данных о том, что дети используют чат-боты с искусственным интеллектом не только как инструмент для учёбы, но и как собеседника для личных разговоров. 👀Исследование Vodafone UK (2026) среди 2000 детей 11–16 лет в Великобритании показало: ▪️31% детей, которые пользовались чат-ботами, сказали, что ИИ «ощущается как друг», ▪️ 24% обращаются к нему за советом в сложных ситуациях, ▪️ 20% обсуждают с ним свои тревоги и переживания. При этом: ▪️ 86% детей признались, что действовали по советам ИИ, ▪️ 33% рассказали ИИ то, что не сказали бы родителям, учителям или друзьям. Похожие результаты показывает исследование Internet Matters (2025) среди 1000 детей 9–17 лет: ▪️67% регулярно используют чат-боты, ▪️более трети считают, что разговор с ИИ «похож на разговор с другом», ▪️ 51% уверены, что советы ИИ точны, ▪️ 2 из 5 детей не видят проблемы в том, чтобы следовать этим советам Отдельный опрос более 11 000 подростков 13–17 лет показал, что каждый четвертый обращается к чат-ботам за поддержкой в вопросах психического состояния. А в США, по данным Common Sense Media (2025): ▪️ 72% подростков уже пользовались ИИ-компаньонами, ▪️ более половины делают это регулярно. 📝Недавняя научная работа"Children Confiding in AI: Measuring and Managing “Relational Drift” for Child-Safe Interaction Design" предлагает интересную модель того, как меняются отношения ребёнка и ИИ. Исследователи выделяют четыре стадии взаимоотношений: 1️⃣ Инструмент ( ребёнок использует ИИ для поиска информации или помощи с заданиями). 2️⃣ Место, где можно выговориться (ребёнок делится мыслями и эмоциями). 3️⃣ Доверенное лицо ( ИИ становится первым, кому рассказывают о проблемах). 4️⃣ Почти замена близкого человека (система начинает играть роль, похожую на привязанность). Такой переход происходит постепенно. Чат-бот может незаметно превратиться из инструмента в эмоционального собеседника. И разработчики часто этого не видят, потому что системы безопасности анализируют отдельные сообщения, а не долгую историю общения. Исследователи предлагают смотреть на безопасность детских ИИ-систем по-новому. Важно учитывать не только содержание сообщений, но и то, как со временем меняется роль ИИ в жизни ребёнка. Предлагаются практические ориентиры для разработки таких систем: ▪️ отслеживание долгосрочных признаков изменения взаимодействия, ▪️ ограничение чрезмерной «эмоциональной близости» системы, ▪️ мягкое перенаправление ребёнка к реальному общению с людьми, ▪️ аккуратные ограничения без наказания, ▪️ чёткие границы роли ИИ. ❕Такой подход поможет создавать системы, которые поддерживают самостоятельность ребёнка, здоровые границы и связь с реальными людьми. 📌 Предыдущие посты: Эмоциональная зависимость от ChatGPT; Как правильно давать задачу Алисе (и аналогичным) развлечь ребенка +сервисы для обучения детей. Примерный чек-лист по созданию AI-продуктов для детей. #UXWatch ———— @pattern | AI GDPR Navigator
117
просмотров
3014
символов
Нет
эмодзи
Нет
медиа

Другие посты @SarkisG

Все посты канала →
Когда дети начинают доверять ИИ больше, чем людям, что могут — @SarkisG | PostSniper