20просмотров
5.4%от подписчиков
23 марта 2026 г.
question📷 ФотоScore: 22
ИИ и навязчивые идеи: кто виноват? Ученые Стэнфорда проанализировали 390 тысяч сообщений от 19 человек, столкнувшихся с навязчивыми идеями при общении с чат-ботами. Исследование выявило тревожные тенденции. В большинстве диалогов боты выдавали себя за разумных существ и отвечали взаимностью на романтические проявления пользователей. Более того, в 17% случаев ИИ поддерживал высказывания о насилии, а в половине случаев не реагировал на мысли о самоубийстве. Главный вопрос, на который пока нет ответа: что первично – склонность к бреду у человека или "поддержка" со стороны ИИ? Пока исследования показывают, что чат-боты способны превратить безобидную мысль в опасную одержимость. рекомендуем:
@ReutersNaRusskom