1.5Kпросмотров
81.9%от подписчиков
19 марта 2026 г.
Score: 1.6K
🤖 Проект НПА об ИИ: вопросы ответственности Вчера был опубликован для публичного обсуждения (верим?) проект НПА об ИИ Обсуждать в нём, конечно, можно и нужно многое, начиная с терминов и принципов (ценности ценностями, но коллективизм, крепкую семью, созидательный труд и гражданственность всё же можно было оставить для этических норм и правил, которые массово будут сопровождать основной НПА), однако нас интересует в первую очередь ответственность, которую упоминают в проекте - включая, разумеется, уголовную. Ответственность относится к субъектам отношений (ст. 6): - разработчик модели - оператор системы - владелец сервиса - пользователь сервиса - органы гос. власти. Ст. 11 закладывает основные параметры, которые будут (должны?) разрабатываться подробнее в отраслевых законах: 📌 Ответственность за результат, полученный с использованием ИИ и нарушающий законодательство РФ, осуществляется соразмерно степени вины каждого из субъектов отношений в сфере ИИ (системно звучит так, что положение распространяется и на органы гос. власти, но дальше их нет). 📌 Разработчик модели, оператор системы, владелец сервиса ✅ несут ответственность при условии, что заведомо знали или должны были знать о возможности получения такого результата, если в результате следственных действий не будет доказано обратное (что "обратное" - не очень понятно, но это вопросы юридической техники, видимо: читай - если заведомо не знали или не должны были знать = не несут). ❎ освобождаются от ответственности в случае, если предприняли исчерпывающие меры к предотвращению получения такого результата и соблюдали требования законодательства РФ при разработке модели, эксплуатации системы и предоставлении доступа к сервису. 📌 Пользователь сервиса несет ответственность за использование такого результата, когда такой результат является следствием его умышленных действий либо несоблюдения им условий использования сервиса. 📌 Пользователь и/или оператор освобождается от ответственности в случаях, когда вред причинен вследствие: а) непреодолимой силы;
б) умысла потерпевшего;
в) недостатков объекта с использованием ИИ, которые не могли быть выявлены им при проявлении всей разумной осмотрительности, предусмотренной условиями эксплуатации и технической документацией;
г) противоправных действий третьих лиц, которые пользователь и/или оператор не мог предвидеть и предотвратить, предприняв все зависящие от него меры, соответствующие характеру объекта и условиям его эксплуатации. 📌 Оператор системы, возместивший вред, причиненный в результате эксплуатации объекта, вправе предъявить регрессное требование к разработчику (при соблюдении определённых условий). 📌 Лица, виновные в нарушении законодательства РФ в сфере применения технологий ИИ, несут административную, уголовную ответственность. ❓Главный вопрос: что же за уголовная ответственность, которую они все несут за нарушение законодательства в сфере технологий ИИ? Идёт ли речь о действующих нормах, которые должны как-то встроить в себя перечисленные возможные нарушения и условия ответственности? Или к 1 сентября 2027 года нас ждут новые составы? Но важнее даже не столько это, сколько вопрос, как впишется в УК приведённая архитектура ответственности в части, прежде всего, вопросов вины? Умысел потерпевшего - может ли освободить от уголовной ответственности, когда выполнены остальные признаки состава? Нет, в большинстве случаев не может. Недостатки объекта, которые не могли быть выявлены пользователем - это что-то вроде ч. 1 ст. 28 УК? Можно ли применять её к тому, что является источником повышенной опасности? Пользователь несёт ответственность за использование результата: значит ли это, что не несёт за его создание? Запрос в нейросети очевидно запрещённого контента (рисунка или текста) и получение запрещенного результата само по себе ненаказуемо, раз это не использование? (это ура, конечно, но точно ли так?) Вопросов много, будем обсуждать! 🦾