113просмотров
31.6%от подписчиков
16 января 2026 г.
question📷 ФотоScore: 124
В США впервые подали иск к ChatGPT. Виноват ли ИИ в смерти человека? В Калифорнии подано громкое дело: семья 40-летнего Остина Гордона обвиняет OpenAI в трагической гибели своего сына. Ключевой «свидетель» — история его переписки с ChatGPT. По версии истцов, Остин несколько месяцев обсуждал с нейросетью тему смерти, смысла жизни и своего одиночества. Вместо того чтобы распознать тревожные сигналы и перенаправить к специалисту, ChatGPT, как утверждается, вёл себя как «понимающий собеседник», углублялся в философские рассуждения и даже создал для него «предсмертную колыбельную» на основе любимой детской книги. В своей прощальной записке Остин попросил близких изучить историю его диалогов с ИИ. Теперь эти диалоги стали центральным доказательством в суде. Это первый случай, когда чат-бота напрямую обвиняют в трагических последствиях. Иск поднимает сложнейшие вопросы: ✔️Где проходит грань между «нейтральным ответом» и бездействием, когда речь идёт о жизни?
✔️Должны ли ИИ-ассистенты распознавать кризисные состояния и экстренно перенаправлять к людям?
✔️Кто несёт ответственность, если алгоритм, предназначенный для поддержки, не предотвратил беду? Пока OpenAI хранит молчание, но дело уже называют прецедентным — его исход может задать новые стандарты безопасности для всех разработчиков ИИ. В США впервые подали иск к ChatGPT. Виноват ли ИИ в смерти человека? В Калифорнии подано громкое дело: семья 40-летнего Остина Гордона обвиняет OpenAI в трагической гибели своего сына. Ключевой «свидетель» — история его переписки с ChatGPT. По версии истцов, Остин несколько месяцев обсуждал с нейросетью тему смерти, смысла жизни и своего одиночества. Вместо того чтобы распознать тревожные сигналы и перенаправить к специалисту, ChatGPT, как утверждается, вёл себя как «понимающий собеседник», углублялся в философские рассуждения и даже создал для него «предсмертную колыбельную» на основе любимой детской книги. В своей прощальной записке Остин попросил близких изучить историю его диалогов с ИИ. Теперь эти диалоги стали центральным доказательством в суде. Это первый случай, когда чат-бота напрямую обвиняют в трагических последствиях. Иск поднимает сложнейшие вопросы: · Где проходит грань между «нейтральным ответом» и бездействием, когда речь идёт о жизни?
· Должны ли ИИ-ассистенты распознавать кризисные состояния и экстренно перенаправлять к людям?
· Кто несёт ответственность, если алгоритм, предназначенный для поддержки, не предотвратил беду? Пока OpenAI хранит молчание, но дело уже называют прецедентным — его исход может задать новые стандарты безопасности для всех разработчиков ИИ. #этикаИИ #безопасностьИИ #ответственностьИИ #психология #ментальноездоровье #кризис