Chaitex
Chaitex / Чайтекс
«Ужасный результат». Как DeepSeek V4 на Huawei меняет мировой расклад сил в AI
Назад к новостям

«Ужасный результат». Как DeepSeek V4 на Huawei меняет мировой расклад сил в AI

20 апреля 2026 г.

18 апреля 2026 года генеральный директор NVIDIA Дженсен Хуанг произнёс фразу, которая разлетелась по всему миру: «The day that DeepSeek comes out on Huawei first - that is a horrible outcome for our nation». Через несколько дней DeepSeek должен выпустить V4 - модель на 1,25 - 1,6 трлн. параметров, работающую целиком на китайских чипах Huawei Ascend. Параллельно компания впервые ищет внешнее финансирование при оценке от $10 млрд. А в Китае расходы на AI-инференс впервые обогнали расходы на тренировку. Разбираем, что стоит за этими событиями и почему это напрямую касается российского рынка.

 

Хуанг произнёс «horrible» - и это не метафора

В подкасте Dwarkesh, вышедшем 18 апреля, Дженсен Хуанг - человек, чья компания контролирует более 80% мирового рынка AI-ускорителей - признался в том, чего NVIDIA больше всего боится. Нет не падения спроса. И не антимонопольного регулирования. А того, что лучшая open-source модель мира будет оптимизирована не под CUDA, а под Huawei.

«Предположим, это не так. Предположим, DeepSeek оптимизирована под архитектуру Huawei. Это ужасный исход для нашей нации». - Дженсен Хуанг, подкаст Dwarkesh, 18 апреля 2026

Контекст: DeepSeek - не стартап-однодневка. Это лаборатория, чьи модели V3 и R1 скачали десятки миллионов раз. R1 потряс рынок в январе 2025 года, доказав, что frontier-модель можно создать за доли бюджета OpenAI. Если такая компания уходит с NVIDIA на Huawei - это не просто потеря клиента. Это потеря стандарта де-факто.

 

DeepSeek V4, Mega MoE и полный разрыв с NVIDIA

По данным The Information, Reuters и нескольких индустриальных источников, DeepSeek V4 будет выпущен в конце апреля 2026 года.

Параметр

Характеристика

Параметры

1,25 - 1,6 трлн. (против 670 млрд. у V3 - удвоение)

Архитектура

Mega MoE - число активируемых экспертов за один проход выросло с 256 (V3) до тысяч, активных параметров на инференс - около 37 млрд

Скорость инференса

В 35 раз быстрее V3

Энергопотребление

На 40% ниже V3

Контекстное окно

До 1 млн. токенов

Лицензия

Apache 2.0, полностью open-source

«Железо»

Huawei Ascend 950PR - не NVIDIA

Миграция на Ascend - это не маркетинговый ход.

Инженеры DeepSeek переписали ядро модели с CUDA на CANN (Compute Architecture for Neural Networks от Huawei). По оценкам, около 80% стандартного PyTorch-кода инференса может работать на Ascend без изменений, но оставшиеся 20% - это системные оптимизации, которые определяют разницу между «работает» и «летает».

DeepSeek - первая модель уровня frontier, полностью оптимизированная под Ascend. Если она покажет результаты, сопоставимые с NVIDIA-based аналогами, аргумент «китайские чипы не тянут серьёзные модели» окончательно теряет силу.

 

DeepSeek ищет первых инвесторов

На фоне запуска V4 стало известно о ещё одном событии: Лян Вэньфэн, основатель DeepSeek, впервые ищет внешнее финансирование. Оценка - не менее $10 млрд, целевой объём привлечения - от $300 млн.

До сих пор DeepSeek работала исключительно на средства материнского хедж-фонда High-Flyer Quant и славилась «техническим идеализмом» - никаких инвесторов, никаких корпоративных соглашений. Переход к внешнему финансированию сигнализирует о смене фазы: тренировка trillion-параметровых моделей стоит сотни миллионов долларов, и одного High-Flyer уже недостаточно.

Для рынка это знак: open-source AI входит в эру капитала. И тот, кто контролирует «железо», на котором работает модель, получает leverage не только над разработчиками, но и над инвесторами.

 

«Инференс-флип», расходы на инференс обошли тренировку

Во второй половине 2025 года в Китае произошёл структурный сдвиг: расходы на AI-инференс впервые превысили расходы на тренировку моделей. Это так называемый «инференс-флип» - момент, когда индустрия переключается с «создаём модели» на «используем модели в продакшене».

Последствия для GPU-рынка фундаментальны:

Тренировка требует максимальной пиковой производительности (FP16/BF16, высокая пропускная способность NVLink). Здесь NVIDIA пока вне конкуренции.

Инференс требует оптимизации по стоимости за запрос. FP4/FP8, batching, энергоэффективность. Здесь китайские чипы уже конкурентоспособны.

Когда рынок смещается в сторону инференса, критерий «какой GPU самый мощный» уступает место критерию «какой GPU даёт лучшую стоимость за токен». И здесь у китайских производителей появляется серьёзное окно возможностей.

 

Три школы замещения NVIDIA

Аналитики описали китайский рынок AI-чипов через «три школы», каждая из которых идёт к замещению NVIDIA своим путём:

Школа 1: Huawei и вертикальная интеграция. Ascend 910C/950PR + CANN + собственный серверный стек.

Полный контроль от чипа до софта. Клиенты: государственные структуры, телеком, крупнейшие AI-компании (ByteDance, Alibaba, DeepSeek). Доля Huawei на рынке: от 20% до 50% по разным оценкам. Стратегия - «замкнуть экосистему на себя».

Школа 2: Big Tech и облачный подход. Alibaba (чипы «Чжэньу», 10 000чиповый дата-центр), Baidu (Kunlun P800), Alibaba Cloud как канал сбыта.

У этих компаний есть облака, клиентская база и деньги на R&D. Их чипы не продают отдельно - они встроены в облачный API. Стратегия - «не продавай чипы, продавай вычисления».

Школа 3: GPU-стартапы и IPO-капитализм. Moore Threads (2 682 млрд. юаней капитализация), MetaX (2 440 млрд), Biren (IPO в Гонконге), Iluvatar CoreX (92% рост выручки).

Эти компании привлекли миллиарды через IPO, но все остаются убыточными. Инвесторы ставят не на текущую прибыль, а на национальную стратегию.

Стратегия - «масштаб через рынок капитала».

Bernstein Research прогнозирует: к концу 2026 года Huawei займёт до 50% рынка; NVIDIA скатится до 8%; AMD - до 12%. Остальные - каждый от 1% до 3%.

 

Сверхточки: масштабирование по-китайски

Аргумент «китайские GPU не масштабируются» стремительно устаревает. Huawei представила Atlas 950 SuperPod - до 8 000 карт Ascend 950DT, соединённых через проприетарный оптический интерконнект.

По словам Huawei, SuperPod превосходит даже NVIDIA NVL576, запуск которой, запланирован на 2027 год.

China Mobile разместила заказ на инфраструктуру с экосистемой CANN на сумму около 20 млрд. юаней ~223 млрд. руб.

Alibaba, Baidu Kunlun, Sugon, Inspur, H3C, ZTE - все анонсировали свои superpod-решения.

Zhipu AI за три месяца обучила мультимодальную модель GLM-Image на чипах Ascend. Модель заняла первое место в Trending Hugging Face менее чем за 24 часа после публикации - и доказала, что на Huawei можно тренировать мирового уровня модели.

 

Что это значит для рынков за пределами Китая

Для российского и CIS-рынков эти события - не далёкая статистика, а конкретный сигнал:

- NVIDIA недоступна, формально и фактически. BIS потерял 20% лицензионного штата, обработка запросов стоит месяцами.

Китайские GPU вышли из статуса «эксперимент». DeepSeek V4 - первая trillion-параметровая frontier-модель, полностью работающая на Huawei Ascend. Если это работает для DeepSeek, это работает для любого enterprise.

Инференс-флип в Китае меняет экономику: оптимизация стоимости за токен - это именно то, что нужно российским предприятиям с ограничениями по бюджету и поставкам.

Окно «подождать NVIDIA» закрывается. Рынок, на котором можно получить альтернативу, - открыт.

 

Вопросы и ответы:

В: Сможет ли DeepSeek V4 реально конкурировать с GPT-5 и Claude на Huawei Ascend, или это в основном символический жест?

О: Не только символический. Технические характеристики V4 (1,25 - 1,6 трлн. параметров, Mega MoE, инференс в 35 раз быстрее V3) говорят о серьёзном прогрессе. Но главный вопрос - не абсолютная производительность, а стоимость инференса. Если Huawei Ascend 950PR с FP4 даёт приемлемое качество при значительно более низкой стоимости за токен, для большинства enterprise-задач это окажется важнее пикового качества на бенчмарках. Jensen Huang назвал это «horrible outcome» именно потому, что в open-source мире оптимизация под конкретное железо создаёт экосистемный lock-in - но уже не в пользу NVIDIA.

В: Стоит ли российским предприятиям ждать выхода DeepSeek V4, чтобы оценить Huawei Ascend, или начинать сейчас?

О: Начинать сейчас. DeepSeek V4 подтвердит (или опровергнет) жизнеспособность Huawei на frontier-нагрузках, но для большинства российских задач - инференс LLM 70B - 200B параметров, RAG, fine-tuning - текущие поколения Ascend 910C/950PR уже работают в production в Китае. Платформы вроде АРКА (MoArk) абстрагируют разнородные GPU под единый API и дают возможность запускать workload на доступном железе, не дожидаясь «идеального» момента. К тому же, если спрос на Huawei вырастет после V4, очереди на поставки могут удлиниться.