M
MIT Technology Review на русском
@MITtechnologyReviewRussia371 подп.
20просмотров
5.4%от подписчиков
23 марта 2026 г.
question📷 ФотоScore: 22
ИИ и навязчивые идеи: кто виноват? Ученые Стэнфорда проанализировали 390 тысяч сообщений от 19 человек, столкнувшихся с навязчивыми идеями при общении с чат-ботами. Исследование выявило тревожные тенденции. В большинстве диалогов боты выдавали себя за разумных существ и отвечали взаимностью на романтические проявления пользователей. Более того, в 17% случаев ИИ поддерживал высказывания о насилии, а в половине случаев не реагировал на мысли о самоубийстве. Главный вопрос, на который пока нет ответа: что первично – склонность к бреду у человека или "поддержка" со стороны ИИ? Пока исследования показывают, что чат-боты способны превратить безобидную мысль в опасную одержимость. рекомендуем: @ReutersNaRusskom
20
просмотров
718
символов
Нет
эмодзи
Да
медиа

Другие посты @MITtechnologyReviewRussia

Все посты канала →
ИИ и навязчивые идеи: кто виноват? Ученые Стэнфорда проанали — @MITtechnologyReviewRussia | PostSniper