М
Море Лаптева
@more_laptev266 подп.
249просмотров
93.6%от подписчиков
27 февраля 2026 г.
Score: 274
🔫 Anthropic заблокировала Пентагон. Пентагон ответил ультиматумом. 3 января 2026 года американский спецназ захватил Николаса Мадуро в Каракасе. Операция «Absolute Resolve». Погибло больше 80 человек — кубинская и венесуэльская охрана. Мозгом операции был Claude (ИИ-модель компании Anthropic). Через платформу Palantir, интегрированную в секретные сети Минобороны, модель анализировала спутниковые снимки, разведданные и в реальном времени координировала действия во время штурма. Anthropic об этом не знала — у них был контракт с Пентагоном, но с чёткими «красными линиями»: никаких автономных боевых операций, никакой массовой слежки. Когда всё вскрылось, Anthropic заблокировали военный доступ к Claude. Министр обороны Пит Хегсет лично встретился с Дарио Амодеи и поставил ультиматум: до пятницы 28 февраля убрать все ограничения — или потерять контракт на $200 млн, получить статус «угрозы цепочке поставок» и столкнуться с принудительным вмешательством по федеральному законодательству. Anthropic не уступила. Сэм Альтман публично заявил, что OpenAI разделяет те же красные линии. Сотрудники OpenAI и Google подписали письмо в поддержку. При этом xAI уже работает с Пентагоном без ограничений, Google и OpenAI «близки к соглашению». Рынок начинает расслаиваться: одни модели — заточены под гражданское применение с публичными гарантиями, другие — открыты для военных и спецслужб без каких-либо ограничений. И вот здесь важно остановиться. Потому что произошло сразу несколько вещей, которые изменят индустрию навсегда. Первое. Военный прецедент состоялся. Генеративный ИИ участвовал в реальной боевой операции с реальными жертвами. Это не пилот, не учения — это боевое применение. Второе. Государства начинают забирать контроль над ИИ под себя. Не регулировать, не сертифицировать — именно забирать. Логика простая: кто контролирует самый мощный ИИ, тот контролирует поле боя. Третье. Мы ещё в начале кривой роста. То, что случилось в Каракасе — это Claude 2026 года. Через пять лет модели будут на порядок мощнее. Масштаб применения — соответствующий. Ждать, что правительства сами выпустят ограничительный указ про «безопасный военный ИИ»? Можно не ждать. Будет безопасный гражданский ИИ — и будет военный ИИ нового поколения, развитие которого никто публично обсуждать не станет. Skynet? Пока нет. Но направление — именно туда. Anthropic пожертвовали $200 млн контрактом, чтобы хотя бы обозначить, где их граница. Уважаю. Хотя бы потому, что большинство из нас на этот вопрос ещё не ответили. 🎧 Эта пятница под Edwin Starr. Почему именно сейчас — в музыкальном комментарии ↓ #ЗапискиШтурмана
249
просмотров
2627
символов
Нет
эмодзи
Нет
медиа

Другие посты @more_laptev

Все посты канала →
🔫 Anthropic заблокировала Пентагон. Пентагон ответил ультим — @more_laptev | PostSniper