Главная
Блог

Mac mini и Mac Studio в дефиците: что происходит, когда AI-инженеры скупают всю память

Статья

Mac mini и Mac Studio в дефиците: что происходит, когда AI-инженеры скупают всю память

Опубликовано 03.05.2026

Engineering

Mac mini и Mac Studio в дефиците: что происходит, когда AI-инженеры скупают всю память

Когда подрядчики с AI-нагрузкой начинают заказывать Mac Studio с 192 ГБ памяти не десятками, а сотнями, цепочка поставок даёт сбой. Именно это, судя по всему, и произошло: Тим Кук предупредил, что дефицит Mac mini и Mac Studio может продлиться месяцами. Причина — не традиционный потребительский спрос, а лавинообразный рост числа разработчиков, которые собирают локальные инференс-фермы для AI-агентов на Apple Silicon.

Почему именно Mac Studio, а не серверы

Локальный запуск LLM — задача, где узким местом почти всегда оказывается пропускная способность памяти и её объём. Mac Studio с M2 Ultra и 192 ГБ унифицированной памяти даёт до 800 ГБ/с — цифра, которую сложно получить в сопоставимом бюджете на x86-сервере с дискретными GPU. Для команд, которые тестируют агентов, дообучают LoRA-адаптеры или разворачивают RAG-пайплайны на чувствительных данных, такая конфигурация становится рабочей лошадкой. Проблема в том, что Apple не проектировала эту линейку под датацентровые объёмы — заводы просто не успевают за внезапным корпоративным спросом.

Дефицит как зеркало индустрии

Эта ситуация хорошо показывает, насколько AI-разработка сейчас аппаратно-зависима. Инженеры готовы ждать месяцами, переплачивать у перекупщиков и идти на компромиссы с конфигурацией — лишь бы получить машину с достаточным объёмом памяти для работы с моделями в 70B+ параметров. На нашем опыте, оригинальная новость от Tom's Hardware лишь подтверждает то, что мы видим в переписках с коллегами: очередь на Mac Studio с 192 ГБ памяти расписана на квартал вперёд, а параллельно вырос вторичный рынок Apple Silicon под AI-задачи.

Для заказчиков, которые планируют AI-продукт, это сигнал: если ваша архитектура завязана на локальный инференс на Mac, закладывайте в roadmap длинные lead times и альтернативные варианты. Например, сборка на базе нескольких RTX 4090 или 6000 Ada может дать сопоставимую пропускную способность, хотя и с другим профилем энергопотребления и охлаждения.

Чего не хватает в обсуждении

Большинство комментаторов видят в дефиците просто «проблему поставок Apple». Нам кажется более важным другой аспект: Apple Silicon остаётся фактически единственной consumer-архитектурой, где можно запустить модель на 70B параметров без квантования. NVIDIA не предлагает ничего подобного в настольном сегменте (RTX 6000 Ada — 48 ГБ, что вдвое меньше), а AMD ещё не догнала по софту. Пока эта монополия сохраняется, любой всплеск AI-активности будет бить по доступности Mac Studio. И если Apple не увеличит производство специально под AI-нишу — а она, скорее всего, не будет этого делать, потому что это не массовый рынок, — дефицит станет хроническим.

Мы бы не рекомендовали закладывать архитектуру продукта на жёсткую привязку к Mac Studio в production. Для прототипов и R&D — да, это лучший вариант. Но как только нагрузка становится регулярной, стоит смотреть в сторону dedicated inference-серверов: либо на базе NVIDIA L40S, либо, если позволяет латентность, через API к облачным GPU. Иначе дефицит Apple превратится из вашей проблемы в проблему ваших пользователей.

← Все статьи