MetaX C-588 - это про стратегию
April 29, 2026
Пока NVIDIA и AMD гоняются за пиковыми TFLOPS, китайская компания MetaX пошла другим путём: 128 ГБ HBM на одной карте. Не самый быстрый GPU - но, возможно, самый практичный для реального инференса крупных моделей.
Битва за память, а не за FLOPS
Сдвиг фокуса с FLOPS на память - это не только вопрос скорости, но и вопрос экономики эксплуатации. Распределённый инференс, когда одна модель «размазывается» по нескольким картам, требует сложнейшего софта для синхронизации данных между GPU. Что неминуемо порождает огромные накладные расходы:
· задержки на передачу данных по шине (NVLink/NVSwitch);
· необходимость балансировки нагрузки;
· синхронизации состояний (KV-cache) между узлами.
В итоге, чтобы получить результат от двух карт, часто требуется дополнительные усилия и ресурсы. Карта с 128 ГБ памяти, такая как MetaX C-588, убирает эту проблему в зародыше. Она позволяет реализовать простую и эффективную архитектуру «1 карта = 1 инстанс», что радикально снижает требования к квалификации инженеров поддержки и упрощает масштабирование сервисов.
Три года рынок GPU для AI двигался по логике «больше TFLOPS - больше денег».
H100, MI300X, Blackwell - каждый новый чип обещал удвоить пиковую производительность. Но практика развернула приоритеты.
Для инференса, а это уже более 50% расходов на AI в Китае - критична не пиковая скорость вычислений, а объём памяти.
Модель 70B параметров в FP16 весит ~140 ГБ. В GPTQ-4bit ~35 ГБ. Но нужно ещё место под KV-cache, батчи, системный оверхед.
На 80-гигабайтном H100 это превращается в головную боль: либо агрессивная квантизация с потерей качества, либо распределённый вывод с ростом латентности.
128 ГБ меняют уравнение. Модель до 120B параметров (в квантованном формате) размещается на одной карте.
Один GPU = один инстанс + минимум латентности + минимум сложностей. Именно этот набор предлагает MetaX C-588 (曦云 C588).
Что такое MetaX C-588
MetaX (沐曦集成电路) - шанхайская компания, основанная в 2020 году бывшими инженерами AMD. В своем портфеле имеют три продуктовые линейки:
1. C-серия (AI-тренировка и инференс);
2. N-серия (Инференс и видео),
3. G-серия (Графика).
Выручка компании выросла с 426 тыс. CNY до 743 млн CNY за два года.
IPO в декабре 2025 на Шанхайской бирже (SSE: 688802) - акции взлетели на 693% за первый день.
MetaX C-588 - флагманская модель C-серии.
Карта построена полностью на собственной GPU-архитектуре (не лицензионная копия AMD/NVIDIA), программный стек MXMACA с совместимостью с CUDA, и технологией MetaXLink для мульти-GPU масштабирования.
Ключевые характеристики:
1. Видеопамять (VRAM): 128 ГБ.
Тип: HBM3e (High Bandwidth Memory).
Это главная особенность карты. Такой объём позволяет запускать на одном ускорителе модели размером до 120 млрд. параметров (в квантованном формате), что устраняет необходимость в сложном и медленном распределённом инференсе.
2. Вычислительная производительность:
FP32 (Vector): 60 TFLOPS.
FP16 (Vector): 480 TFLOPS.
TF32 / FP/BF16 (Tensor): 240 / 480 TFLOPS.
FP8 / INT8 (Tensor): 960 / 960 TOPs.
3. Пропускная способность памяти: 1200 ГБ/с.
Обеспечивает быструю подачу данных к вычислительным ядрам, предотвращая простои.
4. Интерконнект и масштабируемость:
Интерфейс: PCIe 5.0 x16.
Собственный интерконнект: MetaXLink.
Пропускная способность MetaXLink достигает 896 ГБ/с, что позволяет объединять до 8 карт в единый вычислительный пул с «полнотекучей» (full-flow) топологией для максимальной эффективности.
5. Энергопотребление и форм-фактор:
TDP (энергопотребление): 850 Вт.
6. Форм-фактор: OAM 2.0 (OCP Accelerator Module).
7. Охлаждение: Пассивное (рассчитано на продув в серверном шасси).
8. Сценарии использования:
· Инференс и обучение больших языковых моделей (LLM, например, DeepSeek V4, GLM-5.1);· Высокопроизводительные вычисления (HPC);· Обработка больших данных.
Программный стек:
Карта работает под управлением собственного стека MXMACA, который обеспечивает совместимость с основными экосистемами для ИИ, упрощая миграцию с решений конкурентов.
Ключевое позиционирование - между аналогами A100 и H100 по вычислительной мощности, но с 128 ГБ HBM - на 60% больше, чем у обоих.
Параметр | MetaX C-588 | NVIDIA H100 | NVIDIA A100 |
Память: | 128 ГБ HBM | 80 ГБ HBM3 | 80 ГБ HBM2e |
Инференс 70B (FP16): | ❌ Не влезает | ❌ Не влезает | ❌ Не влезает |
Инференс 70B (GPTQ-4bit): | ✅ С запасом | ⚠️ Впритык | ⚠️ Впритык |
Инференс 120B (GPTQ-4bit): | ✅ С запасом | ❌ Не влезает | ❌ Не влезает |
Для российского рынка, где крупнейшие модели — это DeepSeek-V3/R1 (671B MoE), Qwen 72B, Llama 70B — именно объём памяти определяет, сколько карточек нужно для deployment и по какой цене.
Три причины, конкурентоспособности C-588
1. Инференс стал главной статьей расходов
Расходы на AI-инференс в Китае впервые превысили расходы на тренировку моделей. Логика сместилась теперь важнее не «натренировать модель за 3 дня», а «отвечать на 100K запросов в час с приемлемой латентностью». А для этого - объём памяти и эффективность batching, а не пиковые FP16 TFLOPS.
2. DeepSeek V4 подтвердил экосистему
24 апреля 2026 года DeepSeek объявила Day-0 адаптацию V4 под 8 китайских GPU-вендоров. MetaX - в этом списке. Это не «мы попробовали запустить», а production-ready совместимость. Для рынка, где главный вопрос «а запустится ли моя модель?» - это решающий аргумент.
3. АРКА (MoArk) и экосистема партнёров
Развитие экосистемы - это не менее важный фактор, чем технические характеристики самого «железа». Успех любого нового чипа зависит от того, насколько легко его интегрировать в существующие бизнес-процессы. В этом направлении у MetaX и её партнёров наблюдается значительный прогресс.
MetaX совместно с Gitee AI (ныне АРКА/MoArk) провели премьерный запуск дистиллятных моделей DeepSeek R1 на ускорителях «MetaX» C-серии. Это событие стало сигналом для разработчиков: платформа готова к работе с передовыми открытыми моделями. Крупнейший облачный провайдер CE Cloud уже интегрировал ускорители «MetaX» в свои серверы класса «всё-в-одном», предназначенные для задач ИИ. Кроме того, компания Chaixun Telecom обеспечивает бесшовную интеграцию этих решений в коммерческие среды и корпоративные сети.
Экосистема активно растёт, и это - ключевой сигнал для enterprise-покупателей. Для крупного бизнеса важна не только производительность, но и наличие готовых решений, поддержки и проверенных интеграций. Это позволяет им внедрять новые технологии, не рискуя стать «подопытными кроликами», и быть уверенными в стабильности и масштабируемости выбранной платформы.
MetaX C-588 - это альтернативная стратегия
Для компаний, которым нужен инференс крупных моделей при минимальной сложности инфраструктуры, 128 ГБ на одной карте - серьёзное преимущество. Меньше карт на кластер, проще deployment, ниже латентность.
Для компаний, которым нужна пиковая производительность для тренировки - C-588 не лучший выбор. Moore Threads S5000, вероятно, предпочтительнее.
Рекомендация Chaitex: если ваша задача - инференс моделей 30B - 120B параметров (Qwen 72B, Llama 70B, DeepSeek-R1 дистилляты) и вы готовы к инженерным усилиям по адаптации под MXMACA - C-588 заслуживает POC.
MetaX C-588 - это не просто «железо». Это стратегический продукт, который решает главную проблему современного инференса: нехватку памяти. Возможность разместить модель до 120B параметров на одной карте убирает необходимость в сложном и медленном распределённом выводе, что делает её идеальным решением для коммерческого применения ИИ.
Вопросы и ответы
В: MetaX C-588 - это «китайский H100»?
О: Нет. По пиковой производительности C-588 ближе к промежутку между A100 и H100. Его преимущество - 128 ГБ памяти, а не TFLOPS. Это другая архитектурная философия, заточенная под инференс, а не под тренировку.
В: Каковы перспективы MetaX в долгосрочной перспективе?
О: Компания публичная, с господдержкой и планом-дорожкой на C600 (массовое производство H1 2026, поддержка HBM3e и FP8). Риски есть (зависимость от TSMC, программный стек), но позиция на рынке выглядит устойчивой.
