825просмотров
61.2%от подписчиков
6 марта 2026 г.
Score: 908
В Штатах очередной скандал (это их перманентное состояние). Пентагон вовсю использовал одну из популярных нейросетей Claude при подготовке и проведении операции в Иране. Разработчик модели, компания Anthropic, вроде как была категорически против, ругалась с Министром войны и Трампом, но её как будто никто не послушал. Никогда такого не было и вот снова! Можно было бы посмеяться про всю эту медийно-политическую показуху, но мы посмеёмся об «этике» использовании ИИ. Военные США используются все модели флагманских нейросетей. Но ироничнее всего это именно с Anthropic, потому что это первая и единственная компания, с помпой прошедшая сертификацию по ISO/IEC 42001:2023. Они прямо денег заплатили и им дали бумажку о том, что:
🔸ими защищаются данные пользователей и соблюдается конфиденциальность;
🔸ИИ разрабатывается «этичным, безопасным и ответственным образом»;
🔸в компании внедрена система непрерывной оценки рисков и, сейчас внимание, предотвращения «негативного воздействия» ИИ на людей! 😄😄😄 В общем, ни в коем случае нельзя загружать нюдсы подружки, анализировать чужую переписку и консультироваться по поводу депрессии – Claude или будет сопротивляться, или прямо забанит тему. Зато можно уничтожить гимназию для девочек со всеми воспитанницами! Причем, Claude же не для подготовки отчетов и презентаций использовали. Он буквально для целенаведения применяется при анализе спутниковых снимков через Palantir. И все остальные нейросети тоже. Но остальные ладно – у них-то нет сертификата, им можно как бы! И вот в этом – весь контекст всех дискуссий про этику ИИ. На серьёзных выражениях обсуждается полнейшая чушь, мешающая нормальным людям и разработчикам работать, банят за невинные запросы, но при этом все действительно важные и серьезные цели применения ИИ замалчиваются. Поэтому всегда, когда слышится «этика», «безопасность», «инклюзивность» и «конфиденциальность», думаешь, там снова или крестик снять забыли, или трусы надеть.