H
howtocomply_AI: право и ИИ
@howtocomply_AI1.4K подп.
441просмотров
32.2%от подписчиков
16 февраля 2026 г.
question📷 ФотоScore: 485
Как классифицировать ИИ-агентов для целей нормативного правового регулирования? В своем прошлом посте я упомянул про то, что авторы фреймворка по управлению рисками агентных и мультиагентных систем ссылаются на классификацию ИИ-агентов, предложенную в статье Атусы Касирзаде и Джейсона Габриэля "Characterizing AI Agents for Alignment and Governance". Я решил, а почему бы нам не посмотреть на нее, раз мы увидели ссылки на статью в полиси документах 🤩. Авторы выделяют четыре конститутивных свойства ИИ-агентов и предлагают градации для каждого: 1. Автономность (Autonomy): A.0 – A.5 По аналогии с классификацией SAE для автономных транспортных средств (уровни 0–5), авторы выстраивают шкалу от полного отсутствия автономии (A.0 – система действует исключительно по указанию «принципала») до полной автономии (A.5 – система выполняет все задачи без внешнего контроля и надзора). Важно отметить, что полная автономия (A.5) с точки зрения нормативного правового регулирования – не самая желательная цель. Такие системы могут быть допущены в общественное пространство только при существенно ограниченных возможностях и после подтверждения надёжного соответствия целей системы целям, заданным человеком. 2. Способность к действию (Efficacy): матрица E.0 – E.5 Здесь авторы предлагают матрицу, состоящую из двух измерений. Первая ось – степень каузального воздействия агента на среду (от наблюдения до комплексного контроля). Вторая – тип среды: симулированная, опосредованная (через человека-посредника) или физическая. Пересечение даёт уровень способностей к действию от E.0 до E.5. Например, агент с ограниченным воздействием в физической среде (E.3) может быть сопоставим по уровню рисков с агентом, обладающим промежуточным контролем в опосредованной среде (тоже E.3). 3. Сложность целей (Goal Complexity): GC.0 – GC.5 От отсутствия цели (GC.0 – не агент по определению) до неограниченной сложности целей (GC.5 – система способна самостоятельно генерировать целевые структуры и интерпретировать неопределённо сформулированные задачи). Промежуточные уровни включают: единственную простую цель (GC.1), единственную цель со сложной последовательностью действий (GC.2), декомпозицию сложной цели на подцели (GC.3) и балансирование множества взаимозависимых подцелей (GC.4). Данная классификация крайне важна с регуляторной точки зрения: чем выше сложность целей, тем труднее удостовериться, что система работает в рамках, заданных человеком. Для уровней GC.4–GC.5 потребуются принципиально иные методы: как с управленческой стороны (многоуровневые системы надзора, при которых проверка сложных задач разбивается на проверку более простых подзадач), так и с технической (все же лучше уметь раскрывать бэк бокс). 4. Общность (Generality): G.0 – G.5 Шкала от нулевой применимости (G.0) до полностью универсальной системы (G.5 – выполнение всего спектра когнитивных задач человека). Данная характеристика также крайне важна для концептуального осмысления подходов к регулированию: будут ли эти системы преимущественно системами общего назначения и тогда нам нужно общее «горизонтальное» регулирование, либо они преимущественно будут функционировать в отдельных отраслях – тогда нам нужно думать в сторону секторального «вертикального» регулирования. Также авторы классифицировали некоторые существующие системы ИИ с использованием их подхода. Приложил результаты на скриншотах. Важное дополнение от авторов: эти агентные профили не статичны, мониторинг и переоценка должны касаться всех стадий жизненного цикла систем.
441
просмотров
3530
символов
Да
эмодзи
Да
медиа

Другие посты @howtocomply_AI

Все посты канала →
Как классифицировать ИИ-агентов для целей нормативного право — @howtocomply_AI | PostSniper