46просмотров
100.0%от подписчиков
28 ноября 2025 г.
Score: 51
АГЕНТНЫЙ ИИ НА СТЕРОИДАХ: зачем AWS строит свой «нейронный энергорынок» Мэтт Гарман, новый CEO AWS, очень по-амазоновски смотрит на будущее ИИ: меньше эсхатологии, больше счёта за электричество и latency. По его картине мира нас ждёт не «беловоротничковый апокалипсис», а медленный, но мощный сдвиг в сторону мира, где ИИ-инфраструктура становится такой же базовой, как когда-то интернет или электричество. Несколько любопытных штрихов: - По внутренним оценкам Amazon, уже до 80% их разработчиков юзают ИИ в ежедневном флоу — от автодополнения кода до генерации док и прототипов. Это уже не «эксперименты энтузиастов», а нормальный рабочий инструмент. - Спрос смещается: обучение больших моделей важно, но настоящий пожар по ресурсам — это инференс, то есть бесконечный поток запросов от миллионов пользователей и агентов в онлайне. Инфраструктурный слой выглядит всё менее «облачным» и всё более физическим: упираются не только в GPU, но и в электроэнергию, строительство дата-центров, охлаждение, оптику между кластерами. Ответ AWS — максимально вертикальная интеграция: собственные чипы Graviton, Trainium и Inferentia, плюс внутренняя команда Annapurna, которая клепает спецкремний под ИИ-нагрузки, чтобы не сидеть на игле одного вендора. На уровне моделей AWS толкает идею «полицентрического» ИИ: вместо одного бога-монолита — зоопарк моделей через Bedrock, от опенсорса до закрытых фронтирок, плюс их собственная линейка Nova. При этом Гарман довольно честно говорит: выиграть один бенчмарк — это всё меньше про реальную ценность, особенно когда сами бенчмарки очень быстро ломаются, как только индустрия под них начинает оптимизироваться. Самое интересное — взгляд на агентов. По Гармана, следующая волна денег и инноваций будет не в том, чтобы сделать ещё один GPT-N, а в том, чтобы поверх моделей строить агентные системы, которые: - понимают бизнес-контекст, - ходят в API, базы, внутренние тулзы, - закрывают end-to-end задачи без ручного микроменеджмента человека. То есть не «одна умная модель», а рой специализированных ИИ-агентов, живущих внутри корпоративной инфраструктуры и постоянно дергающих облако. Если экстраполировать этот взгляд на 5–10 лет вперёд, получается картинка, где AGI — это не один супермозг, а слой распределённого «ИИ-тока», который постоянно течёт через AWS/Azure/GCP и миллиарды маленьких агентов везде, от IDE до микросервисов. И да, урок для людей «что учить»: по версии Гармана, выигрывают не те, кто молится на очередную магическую LLM, а те, кто умеет: - понимать ограничения железа и инфраструктуры, - собирать из моделей и сервисов устойчивые системы, - проектировать рабочие процессы, где человек и ИИ не мешают друг другу. Короче, если мир действительно превращается в один большой ИИ-цех, то AWS сейчас — это его энергетическая компания и завод по производству «нейронных турбин». Вопрос только в том, кто будет владеть городом, когда все фонари уже подключат.
46
просмотров
2936
символов
Нет
эмодзи
Нет
медиа

Другие посты @AI_AGI_ASI_Future

Все посты канала →
АГЕНТНЫЙ ИИ НА СТЕРОИДАХ: зачем AWS строит свой «нейронный э — @AI_AGI_ASI_Future | PostSniper