1.2Kпросмотров
53.6%от подписчиков
23 марта 2026 г.
Score: 1.3K
AI-инфраструктура упирается в энергию — новый узкий горлышко Если раньше главным ограничением AI были данные и модели, то сейчас всё упирается в энергию. По последним оценкам, крупные AI-дата-центры потребляют столько же электричества, сколько небольшие города. Microsoft, Google и Amazon уже инвестируют миллиарды не только в серверы, но и в:
— собственные энергетические проекты,
— долгосрочные контракты на электроэнергию,
— оптимизацию охлаждения дата-центров. Причина простая: обучение и работа моделей требуют огромных вычислений, а значит — энергии. И это становится реальным ограничением масштабирования. 📊 Почему это важно:
AI-гонка переходит в новую плоскость — выигрывает не только тот, у кого лучшие модели, а тот, у кого есть доступ к дешёвой и стабильной энергии. Это означает, что в будущем конкуренция будет идти не только между IT-компаниями, но и между энергетическими экосистемами.