Chaitex
Chaitex
MetaX C-588 - это про стратегию
Back to Blog

MetaX C-588 - это про стратегию

April 29, 2026

Пока NVIDIA и AMD гоняются за пиковыми TFLOPS, китайская компания MetaX пошла другим путём: 128 ГБ HBM на одной карте. Не самый быстрый GPU - но, возможно, самый практичный для реального инференса крупных моделей.

Битва за память, а не за FLOPS

Сдвиг фокуса с FLOPS на память - это не только вопрос скорости, но и вопрос экономики эксплуатации. Распределённый инференс, когда одна модель «размазывается» по нескольким картам, требует сложнейшего софта для синхронизации данных между GPU. Что неминуемо порождает огромные накладные расходы:

· задержки на передачу данных по шине (NVLink/NVSwitch);

· необходимость балансировки нагрузки;

· синхронизации состояний (KV-cache) между узлами.

В итоге, чтобы получить результат от двух карт, часто требуется дополнительные усилия и ресурсы. Карта с 128 ГБ памяти, такая как MetaX C-588, убирает эту проблему в зародыше. Она позволяет реализовать простую и эффективную архитектуру «1 карта = 1 инстанс», что радикально снижает требования к квалификации инженеров поддержки и упрощает масштабирование сервисов.

Три года рынок GPU для AI двигался по логике «больше TFLOPS - больше денег».

H100, MI300X, Blackwell - каждый новый чип обещал удвоить пиковую производительность. Но практика развернула приоритеты.

Для инференса, а это уже более 50% расходов на AI в Китае - критична не пиковая скорость вычислений, а объём памяти.

Модель 70B параметров в FP16 весит ~140 ГБ. В GPTQ-4bit ~35 ГБ. Но нужно ещё место под KV-cache, батчи, системный оверхед.

На 80-гигабайтном H100 это превращается в головную боль: либо агрессивная квантизация с потерей качества, либо распределённый вывод с ростом латентности.

128 ГБ меняют уравнение. Модель до 120B параметров (в квантованном формате) размещается на одной карте.

Один GPU = один инстанс + минимум латентности + минимум сложностей. Именно этот набор предлагает MetaX C-588 (曦云 C588).

 

Что такое MetaX C-588

MetaX (沐曦集成电路) - шанхайская компания, основанная в 2020 году бывшими инженерами AMD. В своем портфеле имеют три продуктовые линейки:

  1. 1. C-серия (AI-тренировка и инференс);

  2. 2. N-серия (Инференс и видео),

  3. 3. G-серия (Графика).

Выручка компании выросла с 426 тыс. CNY до 743 млн CNY за два года.

IPO в декабре 2025 на Шанхайской бирже (SSE: 688802) - акции взлетели на 693% за первый день.

MetaX C-588 - флагманская модель C-серии.

Карта построена полностью на собственной GPU-архитектуре (не лицензионная копия AMD/NVIDIA), программный стек MXMACA с совместимостью с CUDA, и технологией MetaXLink для мульти-GPU масштабирования.

Ключевые характеристики:

  1. 1. Видеопамять (VRAM): 128 ГБ.

Тип: HBM3e (High Bandwidth Memory).

Это главная особенность карты. Такой объём позволяет запускать на одном ускорителе модели размером до 120 млрд. параметров (в квантованном формате), что устраняет необходимость в сложном и медленном распределённом инференсе.

  1. 2. Вычислительная производительность:

FP32 (Vector): 60 TFLOPS.

FP16 (Vector): 480 TFLOPS.

TF32 / FP/BF16 (Tensor): 240 / 480 TFLOPS.

FP8 / INT8 (Tensor): 960 / 960 TOPs.

  1. 3. Пропускная способность памяти: 1200 ГБ/с.

Обеспечивает быструю подачу данных к вычислительным ядрам, предотвращая простои.

  1. 4. Интерконнект и масштабируемость:

  2. Интерфейс: PCIe 5.0 x16.

  3. Собственный интерконнект: MetaXLink.

Пропускная способность MetaXLink достигает 896 ГБ/с, что позволяет объединять до 8 карт в единый вычислительный пул с «полнотекучей» (full-flow) топологией для максимальной эффективности.

  1. 5. Энергопотребление и форм-фактор:

TDP (энергопотребление): 850 Вт.

  1. 6. Форм-фактор: OAM 2.0 (OCP Accelerator Module).

  2. 7. Охлаждение: Пассивное (рассчитано на продув в серверном шасси).

  3. 8. Сценарии использования:

· Инференс и обучение больших языковых моделей (LLM, например, DeepSeek V4, GLM-5.1);
· Высокопроизводительные вычисления (HPC);
· Обработка больших данных.

Программный стек:

Карта работает под управлением собственного стека MXMACA, который обеспечивает совместимость с основными экосистемами для ИИ, упрощая миграцию с решений конкурентов.

Ключевое позиционирование - между аналогами A100 и H100 по вычислительной мощности, но с 128 ГБ HBM - на 60% больше, чем у обоих.

 

 

Параметр

MetaX C-588

NVIDIA H100

NVIDIA A100

Память:

128 ГБ HBM

80 ГБ HBM3

80 ГБ HBM2e

Инференс 70B (FP16):

❌ Не влезает

❌ Не влезает

❌ Не влезает

Инференс 70B (GPTQ-4bit):

✅ С запасом

⚠️ Впритык

⚠️ Впритык

Инференс 120B (GPTQ-4bit):

✅ С запасом

❌ Не влезает

❌ Не влезает

Для российского рынка, где крупнейшие модели — это DeepSeek-V3/R1 (671B MoE), Qwen 72B, Llama 70B — именно объём памяти определяет, сколько карточек нужно для deployment и по какой цене.

 

Три причины, конкурентоспособности C-588

1. Инференс стал главной статьей расходов

Расходы на AI-инференс в Китае впервые превысили расходы на тренировку моделей. Логика сместилась теперь важнее не «натренировать модель за 3 дня», а «отвечать на 100K запросов в час с приемлемой латентностью». А для этого - объём памяти и эффективность batching, а не пиковые FP16 TFLOPS.

2. DeepSeek V4 подтвердил экосистему

24 апреля 2026 года DeepSeek объявила Day-0 адаптацию V4 под 8 китайских GPU-вендоров. MetaX - в этом списке. Это не «мы попробовали запустить», а production-ready совместимость. Для рынка, где главный вопрос «а запустится ли моя модель?» - это решающий аргумент.

3. АРКА (MoArk) и экосистема партнёров

Развитие экосистемы - это не менее важный фактор, чем технические характеристики самого «железа». Успех любого нового чипа зависит от того, насколько легко его интегрировать в существующие бизнес-процессы. В этом направлении у MetaX и её партнёров наблюдается значительный прогресс.

MetaX совместно с Gitee AI (ныне АРКА/MoArk) провели премьерный запуск дистиллятных моделей DeepSeek R1 на ускорителях «MetaX» C-серии. Это событие стало сигналом для разработчиков: платформа готова к работе с передовыми открытыми моделями. Крупнейший облачный провайдер CE Cloud уже интегрировал ускорители «MetaX» в свои серверы класса «всё-в-одном», предназначенные для задач ИИ. Кроме того, компания Chaixun Telecom обеспечивает бесшовную интеграцию этих решений в коммерческие среды и корпоративные сети.

Экосистема активно растёт, и это - ключевой сигнал для enterprise-покупателей. Для крупного бизнеса важна не только производительность, но и наличие готовых решений, поддержки и проверенных интеграций. Это позволяет им внедрять новые технологии, не рискуя стать «подопытными кроликами», и быть уверенными в стабильности и масштабируемости выбранной платформы.

 

MetaX C-588 - это альтернативная стратегия

Для компаний, которым нужен инференс крупных моделей при минимальной сложности инфраструктуры, 128 ГБ на одной карте - серьёзное преимущество. Меньше карт на кластер, проще deployment, ниже латентность.

Для компаний, которым нужна пиковая производительность для тренировки - C-588 не лучший выбор. Moore Threads S5000, вероятно, предпочтительнее.

Рекомендация Chaitex: если ваша задача - инференс моделей 30B - 120B параметров (Qwen 72B, Llama 70B, DeepSeek-R1 дистилляты) и вы готовы к инженерным усилиям по адаптации под MXMACA - C-588 заслуживает POC.

MetaX C-588 - это не просто «железо». Это стратегический продукт, который решает главную проблему современного инференса: нехватку памяти. Возможность разместить модель до 120B параметров на одной карте убирает необходимость в сложном и медленном распределённом выводе, что делает её идеальным решением для коммерческого применения ИИ.

Вопросы и ответы

В: MetaX C-588 - это «китайский H100»?

О: Нет. По пиковой производительности C-588 ближе к промежутку между A100 и H100. Его преимущество - 128 ГБ памяти, а не TFLOPS. Это другая архитектурная философия, заточенная под инференс, а не под тренировку.

В: Каковы перспективы MetaX в долгосрочной перспективе?

О: Компания публичная, с господдержкой и планом-дорожкой на C600 (массовое производство H1 2026, поддержка HBM3e и FP8). Риски есть (зависимость от TSMC, программный стек), но позиция на рынке выглядит устойчивой.