117просмотров
23.9%от подписчиков
16 марта 2026 г.
questionScore: 129
Когда дети начинают доверять ИИ больше, чем людям, что могут сделать разработчики? Появляется всё больше данных о том, что дети используют чат-боты с искусственным интеллектом не только как инструмент для учёбы, но и как собеседника для личных разговоров. 👀Исследование Vodafone UK (2026) среди 2000 детей 11–16 лет в Великобритании показало:
▪️31% детей, которые пользовались чат-ботами, сказали, что ИИ «ощущается как друг»,
▪️ 24% обращаются к нему за советом в сложных ситуациях,
▪️ 20% обсуждают с ним свои тревоги и переживания. При этом:
▪️ 86% детей признались, что действовали по советам ИИ,
▪️ 33% рассказали ИИ то, что не сказали бы родителям, учителям или друзьям. Похожие результаты показывает исследование Internet Matters (2025) среди 1000 детей 9–17 лет:
▪️67% регулярно используют чат-боты,
▪️более трети считают, что разговор с ИИ «похож на разговор с другом»,
▪️ 51% уверены, что советы ИИ точны,
▪️ 2 из 5 детей не видят проблемы в том, чтобы следовать этим советам Отдельный опрос более 11 000 подростков 13–17 лет показал, что каждый четвертый обращается к чат-ботам за поддержкой в вопросах психического состояния. А в США, по данным Common Sense Media (2025):
▪️ 72% подростков уже пользовались ИИ-компаньонами,
▪️ более половины делают это регулярно. 📝Недавняя научная работа"Children Confiding in AI: Measuring and Managing “Relational Drift” for Child-Safe Interaction Design" предлагает интересную модель того, как меняются отношения ребёнка и ИИ. Исследователи выделяют четыре стадии взаимоотношений:
1️⃣ Инструмент ( ребёнок использует ИИ для поиска информации или помощи с заданиями).
2️⃣ Место, где можно выговориться (ребёнок делится мыслями и эмоциями).
3️⃣ Доверенное лицо ( ИИ становится первым, кому рассказывают о проблемах).
4️⃣ Почти замена близкого человека (система начинает играть роль, похожую на привязанность). Такой переход происходит постепенно. Чат-бот может незаметно превратиться из инструмента в эмоционального собеседника. И разработчики часто этого не видят, потому что системы безопасности анализируют отдельные сообщения, а не долгую историю общения. Исследователи предлагают смотреть на безопасность детских ИИ-систем по-новому.
Важно учитывать не только содержание сообщений, но и то, как со временем меняется роль ИИ в жизни ребёнка.
Предлагаются практические ориентиры для разработки таких систем:
▪️ отслеживание долгосрочных признаков изменения взаимодействия,
▪️ ограничение чрезмерной «эмоциональной близости» системы,
▪️ мягкое перенаправление ребёнка к реальному общению с людьми,
▪️ аккуратные ограничения без наказания,
▪️ чёткие границы роли ИИ. ❕Такой подход поможет создавать системы, которые поддерживают самостоятельность ребёнка, здоровые границы и связь с реальными людьми. 📌 Предыдущие посты:
Эмоциональная зависимость от ChatGPT;
Как правильно давать задачу Алисе (и аналогичным) развлечь ребенка +сервисы для обучения детей.
Примерный чек-лист по созданию AI-продуктов для детей. #UXWatch ————
@pattern | AI GDPR Navigator