1.1Kпросмотров
19 марта 2026 г.
Score: 1.2K
Это не просто закон об ИИ. Он говорит - у ИИ будет не только создатель, но и прописка. Это чертеж "AI-ковчега", который мы строим в изоляции от глобальных моделей - чтобы те не принесли свои "повесточки", нарративы и невылавливаемое море смыслом. Короче, китайский вариант "на стероидах". И команда на этом ковчеге будет особой. Закон рамочный. Пока он только раздает полномочия и делит модели на "своих" и "чужих". Чтобы работать с госорганами и критической инфраструктурой (например,медициной, РЖД, и т.д.), модель должна стать "доверенной". А для этого - сертификация от ФСБ и ФСТЭК и данные только внутри России. Это отсекает не только OpenAI, но и любого российского разработчика с облаками за границей. Но самые жесткие правила - для "своих". Суверенная модель должна быть разработана в России, обучена в России, на данных из России и только гражданами РФ без второго гражданства. Глобальные распределенные команды (в том числе экспаты, релоканты и удаленщики из Тая) попадают в красную зону. В таких условиях главными бенефициарами неизбежно станут госкорпорации. Только у них есть ресурсы развернуть всю цепочку внутри страны. Стартапы не вымрут, но их роль сведется к роли шустрых субподрядчиков для "больших дядей". Есть и плюс. Закон дает разработчикам королевские (в обоих смыслах) полномочия. Во-первых, TDM-исключение - проще говоря, сносится стена "авторских прав". Разработчикам официально разрешают использовать любые произведения для обучения нейросетей, если есть законный доступ. Россия легализует тот самый "fair use", о котором спорят на Западе. Во-вторых, ЦОДам для русского ИИ гарантируют дешевую и даже атомную энергию, налоговые льготы и упрощенное подключение. Это попытка создать свою "AI-энергетику". При этом разработчики обязаны документировать архитектуру и риски, а операторы - тестировать системы. И если ИИ взбесится или начнет зиговать ("при возникновении угрозы жизни, здоровью или безопасности государства") - его должны моментально вырубать. Есть отдельный и важный запрет - использовать технологии для манипуляции людьми, эксплуатируя их возраст, психику или иные уязвимости. Любой синтезированный контент (дипфейки, сгенерированные видео и тексты) должен иметь четкую маркировку. Которую платформы обязаны проверять. Технически нерешенная задача, но правило прописано железно. И да. На военку и безопасность закон не распространяется. У них будут (есть) свои правила и свои ИИ. Удастся ли этому ковчегу доплыть или он утонет в бюрократии, покажут те самые подзаконные акты.
@ex_trakt