453просмотров
95.2%от подписчиков
18 февраля 2024 г.
Score: 498
🤖Формирование прецедента - ИИ оклеветал радиоведущего😱 ✒️В июне 2023 года радиоведущий Марк Уолтерс подал иск о клевете против OpenAI. Он обвинил ChatGPT в создании ответа, который неверно предполагал его причастность к хищению средств у Second Amendment Foundation (SAF). Уолтерс утверждал, что ChatGPT сгенерировал текст, который фактически был неверным и обвинял его в мошенничестве и растрате средств SAF. Уолтерс же не является стороной в деле SAF и никогда не занимал там должность. Это является примером "галлюцинации", когда ИИ создает ложные факты. 🏛️В январе этого года судья отклонил ходатайство OpenAI об отказе в иске, позволяя делу двигаться дальше. В своем ходатайстве OpenAI утверждала, что она не несет ответственности за клевету, поскольку пользователь, инициировавший запрос в ChatGPT знал, что ответы были ложными. OpenAI также утверждала, что она не должна нести ответственность, так как условия использования чата предупреждают пользователей о том, что он может ошибаться. 💬Профессор Юджин Волох предполагает, что иск против ИИ за клевету может быть юридически обоснованным. Однако он считает, что поддержание этого конкретного иска может быть сложным, поскольку для возникновения ответственности за диффамацию обычно требуется доказательство того, что ответчик знал о недостоверности заявления или действовал с пренебрежением к его правдивости, или что пострадавшая сторона понесла реальный ущерб (например, потерю дохода) из-за недостоверного заявления, сделанного ответчиком по неосторожности. 💬Также в США действует раздел 230, который представляет собой положение закона 1996 года об этике в сфере коммуникаций. Он устанавливает, что интернет-платформы, такие как Facebook или Twitter, не являются издателями контента, размещаемого пользователями на их сайтах. Это означает, что эти компании не несут юридической ответственности за материалы, опубликованные пользователями, даже если такой контент может быть незаконным. Применительно к делу Уолтерса против OpenAI, этот закон ставит вопрос о том, распространяется ли его защита на случаи, когда контент генерируется ИИ, а не человеком. 📰Этот случай становится новым прецедентом в юриспруденции, поскольку вызывает вопросы о юридической ответственности ИИ за распространение ложной информации.