Microsoft и OpenAI: эксклюзивность закончилась, vendor lock-in остался
Опубликовано 29.04.2026
•
Engineering
Когда два гиганта договариваются о «стратегическом партнёрстве», инженеру стоит сразу искать, где спрятан lock-in. Новость о том, что Microsoft и OpenAI пересмотрели свои отношения — Azure перестал быть эксклюзивным облаком для ChatGPT — на первый взгляд похожа на ослабление хватки. Но если присмотреться к деталям, это скорее перекладывание рисков, чем настоящая свобода для OpenAI.
Раньше Microsoft платила OpenAI долю от выручки (revenue share) и получала эксклюзивный доступ к модели на Azure. Теперь схема изменилась: деньги текут только в одну сторону — от OpenAI к Microsoft за облачные ресурсы. Microsoft сохраняет first-refusal — право первого выбора на предоставление серверных мощностей, и, конечно, доступ к самой модели. OpenAI же может работать с другими облаками, но только если Microsoft откажется. Подробности соглашения раскрыты в оригинальной статье Tom's Hardware.
Round-trip вместо инвестиций
С точки зрения финансов эта сделка напоминает round-trip: Microsoft «инвестирует» в OpenAI, OpenAI тут же тратит эти деньги на Azure. В отчётах обеих сторон это выглядит красиво — Microsoft показывает рост облачного бизнеса, OpenAI — привлечение капитала. Но для тех, кто строит продукты на базе OpenAI, важнее другое: модель остаётся завязана на инфраструктуру Microsoft. Даже формальное право уйти к другому провайдеру нивелируется тем, что переезд — это недели миграции, переписывание интеграций и потенциальные проблемы с производительностью.
Что меняется для тех, кто строит AI-продукты
Для инженера, выбирающего стек, эта новость — не про «OpenAI стала независимее». Это сигнал: если ваш продукт завязан на одну модель и одно облако, вы в зоне риска. Мы в WIZICO не раз видели, как стартапы, построившие всё на ChatGPT + Azure, оказывались в ситуации, где сменить провайдера — дороже, чем терпеть растущие цены. Теперь у OpenAI формально есть опция, но на практике Microsoft всё ещё контролирует ключевой ресурс — compute.
Наш совет: проектируйте систему так, чтобы слой модели был абстрагирован от инфраструктуры. Используйте универсальные форматы (ONNX, OpenAPI), предусмотрите fallback на другие LLM (через тот же AWS Bedrock или GCP Vertex AI) и не зашивайте Azure-specific фичи в код. Это не паранойя — это здравый смысл: если партнёрский контракт переписывают раз в полгода, ваша архитектура должна переживать такие изменения без даунтайма.
В конечном счёте, ослабление эксклюзивности — это шаг к более конкурентному рынку, но не сегодня. Пока compute — дефицитный ресурс, а модели требуют тысяч GPU, облачные гиганты будут оставаться главными бенефициарами AI-бума. И выбор провайдера — это не только про цену, но и про то, насколько легко вы сможете уйти.
