«Ужасный результат». Как DeepSeek V4 на Huawei меняет мировой расклад сил в AI
20 апреля 2026 г.
18 апреля 2026 года генеральный директор NVIDIA Дженсен Хуанг произнёс фразу, которая разлетелась по всему миру: «The day that DeepSeek comes out on Huawei first - that is a horrible outcome for our nation». Через несколько дней DeepSeek должен выпустить V4 - модель на 1,25 - 1,6 трлн. параметров, работающую целиком на китайских чипах Huawei Ascend. Параллельно компания впервые ищет внешнее финансирование при оценке от $10 млрд. А в Китае расходы на AI-инференс впервые обогнали расходы на тренировку. Разбираем, что стоит за этими событиями и почему это напрямую касается российского рынка.
Хуанг произнёс «horrible» - и это не метафора
В подкасте Dwarkesh, вышедшем 18 апреля, Дженсен Хуанг - человек, чья компания контролирует более 80% мирового рынка AI-ускорителей - признался в том, чего NVIDIA больше всего боится. Нет не падения спроса. И не антимонопольного регулирования. А того, что лучшая open-source модель мира будет оптимизирована не под CUDA, а под Huawei.
«Предположим, это не так. Предположим, DeepSeek оптимизирована под архитектуру Huawei. Это ужасный исход для нашей нации». - Дженсен Хуанг, подкаст Dwarkesh, 18 апреля 2026
Контекст: DeepSeek - не стартап-однодневка. Это лаборатория, чьи модели V3 и R1 скачали десятки миллионов раз. R1 потряс рынок в январе 2025 года, доказав, что frontier-модель можно создать за доли бюджета OpenAI. Если такая компания уходит с NVIDIA на Huawei - это не просто потеря клиента. Это потеря стандарта де-факто.
DeepSeek V4, Mega MoE и полный разрыв с NVIDIA
По данным The Information, Reuters и нескольких индустриальных источников, DeepSeek V4 будет выпущен в конце апреля 2026 года.
Параметр | Характеристика |
Параметры | 1,25 - 1,6 трлн. (против 670 млрд. у V3 - удвоение) |
Архитектура | Mega MoE - число активируемых экспертов за один проход выросло с 256 (V3) до тысяч, активных параметров на инференс - около 37 млрд |
Скорость инференса | В 35 раз быстрее V3 |
Энергопотребление | На 40% ниже V3 |
Контекстное окно | До 1 млн. токенов |
Лицензия | Apache 2.0, полностью open-source |
«Железо» | Huawei Ascend 950PR - не NVIDIA |
Миграция на Ascend - это не маркетинговый ход.
Инженеры DeepSeek переписали ядро модели с CUDA на CANN (Compute Architecture for Neural Networks от Huawei). По оценкам, около 80% стандартного PyTorch-кода инференса может работать на Ascend без изменений, но оставшиеся 20% - это системные оптимизации, которые определяют разницу между «работает» и «летает».
DeepSeek - первая модель уровня frontier, полностью оптимизированная под Ascend. Если она покажет результаты, сопоставимые с NVIDIA-based аналогами, аргумент «китайские чипы не тянут серьёзные модели» окончательно теряет силу. |
DeepSeek ищет первых инвесторов
На фоне запуска V4 стало известно о ещё одном событии: Лян Вэньфэн, основатель DeepSeek, впервые ищет внешнее финансирование. Оценка - не менее $10 млрд, целевой объём привлечения - от $300 млн.
До сих пор DeepSeek работала исключительно на средства материнского хедж-фонда High-Flyer Quant и славилась «техническим идеализмом» - никаких инвесторов, никаких корпоративных соглашений. Переход к внешнему финансированию сигнализирует о смене фазы: тренировка trillion-параметровых моделей стоит сотни миллионов долларов, и одного High-Flyer уже недостаточно.
Для рынка это знак: open-source AI входит в эру капитала. И тот, кто контролирует «железо», на котором работает модель, получает leverage не только над разработчиками, но и над инвесторами.
«Инференс-флип», расходы на инференс обошли тренировку
Во второй половине 2025 года в Китае произошёл структурный сдвиг: расходы на AI-инференс впервые превысили расходы на тренировку моделей. Это так называемый «инференс-флип» - момент, когда индустрия переключается с «создаём модели» на «используем модели в продакшене».
Последствия для GPU-рынка фундаментальны:
Тренировка требует максимальной пиковой производительности (FP16/BF16, высокая пропускная способность NVLink). Здесь NVIDIA пока вне конкуренции. | Инференс требует оптимизации по стоимости за запрос. FP4/FP8, batching, энергоэффективность. Здесь китайские чипы уже конкурентоспособны. |
Когда рынок смещается в сторону инференса, критерий «какой GPU самый мощный» уступает место критерию «какой GPU даёт лучшую стоимость за токен». И здесь у китайских производителей появляется серьёзное окно возможностей.
Три школы замещения NVIDIA
Аналитики описали китайский рынок AI-чипов через «три школы», каждая из которых идёт к замещению NVIDIA своим путём:
Школа 1: Huawei и вертикальная интеграция. Ascend 910C/950PR + CANN + собственный серверный стек.
Полный контроль от чипа до софта. Клиенты: государственные структуры, телеком, крупнейшие AI-компании (ByteDance, Alibaba, DeepSeek). Доля Huawei на рынке: от 20% до 50% по разным оценкам. Стратегия - «замкнуть экосистему на себя».
Школа 2: Big Tech и облачный подход. Alibaba (чипы «Чжэньу», 10 000чиповый дата-центр), Baidu (Kunlun P800), Alibaba Cloud как канал сбыта.
У этих компаний есть облака, клиентская база и деньги на R&D. Их чипы не продают отдельно - они встроены в облачный API. Стратегия - «не продавай чипы, продавай вычисления».
Школа 3: GPU-стартапы и IPO-капитализм. Moore Threads (2 682 млрд. юаней капитализация), MetaX (2 440 млрд), Biren (IPO в Гонконге), Iluvatar CoreX (92% рост выручки).
Эти компании привлекли миллиарды через IPO, но все остаются убыточными. Инвесторы ставят не на текущую прибыль, а на национальную стратегию.
Стратегия - «масштаб через рынок капитала».
Bernstein Research прогнозирует: к концу 2026 года Huawei займёт до 50% рынка; NVIDIA скатится до 8%; AMD - до 12%. Остальные - каждый от 1% до 3%. |
Сверхточки: масштабирование по-китайски
Аргумент «китайские GPU не масштабируются» стремительно устаревает. Huawei представила Atlas 950 SuperPod - до 8 000 карт Ascend 950DT, соединённых через проприетарный оптический интерконнект.
По словам Huawei, SuperPod превосходит даже NVIDIA NVL576, запуск которой, запланирован на 2027 год.
China Mobile разместила заказ на инфраструктуру с экосистемой CANN на сумму около 20 млрд. юаней ~223 млрд. руб.
Alibaba, Baidu Kunlun, Sugon, Inspur, H3C, ZTE - все анонсировали свои superpod-решения.
Zhipu AI за три месяца обучила мультимодальную модель GLM-Image на чипах Ascend. Модель заняла первое место в Trending Hugging Face менее чем за 24 часа после публикации - и доказала, что на Huawei можно тренировать мирового уровня модели. |
Что это значит для рынков за пределами Китая
Для российского и CIS-рынков эти события - не далёкая статистика, а конкретный сигнал:
- NVIDIA недоступна, формально и фактически. BIS потерял 20% лицензионного штата, обработка запросов стоит месяцами.
— Китайские GPU вышли из статуса «эксперимент». DeepSeek V4 - первая trillion-параметровая frontier-модель, полностью работающая на Huawei Ascend. Если это работает для DeepSeek, это работает для любого enterprise.
— Инференс-флип в Китае меняет экономику: оптимизация стоимости за токен - это именно то, что нужно российским предприятиям с ограничениями по бюджету и поставкам.
Окно «подождать NVIDIA» закрывается. Рынок, на котором можно получить альтернативу, - открыт. |
Вопросы и ответы:
В: Сможет ли DeepSeek V4 реально конкурировать с GPT-5 и Claude на Huawei Ascend, или это в основном символический жест?
О: Не только символический. Технические характеристики V4 (1,25 - 1,6 трлн. параметров, Mega MoE, инференс в 35 раз быстрее V3) говорят о серьёзном прогрессе. Но главный вопрос - не абсолютная производительность, а стоимость инференса. Если Huawei Ascend 950PR с FP4 даёт приемлемое качество при значительно более низкой стоимости за токен, для большинства enterprise-задач это окажется важнее пикового качества на бенчмарках. Jensen Huang назвал это «horrible outcome» именно потому, что в open-source мире оптимизация под конкретное железо создаёт экосистемный lock-in - но уже не в пользу NVIDIA.
В: Стоит ли российским предприятиям ждать выхода DeepSeek V4, чтобы оценить Huawei Ascend, или начинать сейчас?
О: Начинать сейчас. DeepSeek V4 подтвердит (или опровергнет) жизнеспособность Huawei на frontier-нагрузках, но для большинства российских задач - инференс LLM 70B - 200B параметров, RAG, fine-tuning - текущие поколения Ascend 910C/950PR уже работают в production в Китае. Платформы вроде АРКА (MoArk) абстрагируют разнородные GPU под единый API и дают возможность запускать workload на доступном железе, не дожидаясь «идеального» момента. К тому же, если спрос на Huawei вырастет после V4, очереди на поставки могут удлиниться.
