Главная
Блог

$725 миллиардов на инфраструктуру: Big Tech строит дата-центры, а вы платите за их ошибки

Статья

$725 миллиардов на инфраструктуру: Big Tech строит дата-центры, а вы платите за их ошибки

Опубликовано 01.05.2026

Engineering

Когда Google, Amazon, Microsoft и Meta планируют потратить $725 млрд на капитальные расходы (Capex) к 2026 году — на 77% больше, чем в прошлом году — это не просто цифры для отчетов. За этими миллиардами стоят конкретные решения: где разместятся новые дата-центры, какие чипы закупать, и главное — кто в итоге заплатит за перекос мощностей.

Для нас, как для инженеров, работающих с инфраструктурой, эти цифры — сигнал не про «будущее AI», а про вендор-лок и cost overrun, которые уже сейчас закладываются в стоимость облачных услуг. Если облачный провайдер вложил $10 млрд в GPU-ферму, он не будет держать цены на уровне «оплата по факту использования» — ему нужно вернуть инвестиции, и вы это увидите в счетах за compute.

Почему Capex растет быстрее выручки

По данным отчета, на который ссылается Tom's Hardware, рост Capex в первую очередь связан с закупкой GPU (NVIDIA H100/B200) и строительством дата-центров под AI-нагрузки. Но есть нюанс: эти мощности не всегда соответствуют реальному спросу. Аналитики называют «медвежий тезис» мусором, но мы видим, что большая часть инвестиций — это ставка на то, что AI-нагрузки вырастут до уровня, оправдывающего затраты. Если этого не произойдет — облачные цены просто поднимут, чтобы компенсировать простой.

На практике это означает, что компании, которые сейчас выбирают облачного провайдера для AI-продукта, по сути, принимают на себя часть Capex-риска. Вы платите не только за ресурсы, которые потребляете, но и за пустующие стойки соседей.

Строить свой дата-центр или арендовать — не дилемма

Мы часто слышим: «Крупные облака выгоднее, чем свой hardware». Это правда для 80% задач, но не для AI-инференса с высокими требованиями к latency. На нашем опыте, если вы гоняете LLM в продакшене с RPS > 1000, аренда GPU у одного провайдера может обходиться дороже, чем colocation собственных серверов — просто из-за наценки за managed service. Big Tech закладывает в цену не только железо, но и амортизацию инфраструктуры, которая может простаивать.

Мы бы рекомендовали считать TCO (Total Cost of Ownership) на горизонте 3 лет, а не смотреть на текущие тарифы. Если ваш проект вырастет — вы попадете в зависимость от поставщика, который уже вложил ваши будущие деньги в новые GPU.

Что с этим делать инженеру

Во-первых, не верить в «безлимитное масштабирование» облака — у него есть потолок, и он упирается в Capex провайдера. Во-вторых, закладывать в архитектуру мульти-облачность или гибрид: хотя бы на уровне хранения данных и stateless compute. Если ваш AI-продукт привязан к одному облаку через managed Kubernetes или serverless — миграция будет стоить дороже, чем кажется.

В-третьих, следить за новостями о вводе мощностей: когда AWS объявляет о новом регионе в вашей стране — это не просто «улучшение сервиса», это сигнал, что через 6–12 месяцев цены на compute могут скорректироваться вниз из-за конкуренции. И наоборот — если провайдер задерживает ввод ЦОДа, ждите роста цен.

$725 млрд — это не просто рекорд. Это стоимость ставки, которую Big Tech делает на AI. И как в любой ставке, проигравшие платят больше.

← Все статьи