Китай оценивает возможность закупок чипов NVIDIA H200 после снятия экспортных ограничений
После того как США одобрили экспорт в Китай высокопроизводительных AI-чипов NVIDIA H200, китайские власти провели срочное совещание с ведущими технологическими компаниями страны. Целью встречи стала оценка их потребностей в новых чипах.
Как сообщается, совещание было организовано Государственным комитетом по развитию и реформам и Министерством промышленности и информатизации Китая. В нём приняли участие представители трёх крупнейших технологических гигантов, активно развивающих искусственный интеллект: ByteDance, Alibaba и Tencent.
В настоящее время китайские регуляторы рассматривают вопрос о том, разрешить ли местным компаниям закупать H200, и если да, то каким образом ограничить эти закупки. Для принятия решения от компаний потребовали предоставить прогнозы спроса на новые чипы, на основе которых впоследствии будут выпущены официальные рекомендации.
С 2022 года, когда США впервые ввели ограничения на экспорт чипов в Китай, именно эти два ведомства координируют закупки AI-процессоров. Сейчас они пытаются сбалансировать два противоречивых фактора. С одной стороны, правительство продолжает настаивать на максимальном использовании отечественных чипов, особенно в государственных компаниях и проектах. С другой стороны, в Китае пока не налажено массовое производство местных аналогов, способных конкурировать с H200 в задачах обучения больших языковых моделей.
Финансовые результаты NVIDIA демонстрируют последствия этих ограничений. Выручка от продаж в Китае специально разработанного чипа H20 в четвёртом квартале составила лишь 50 миллионов долларов, тогда как в первой половине года доход от аналогичных чипов достигал 4.6 миллиардов долларов. В целом, выручка NVIDIA на китайском рынке в четвёртом квартале упала на 63% в годовом исчислении, составив около 3 миллиардов долларов. Глава компании Дженсен Хуанг публично заявил, что доля NVIDIA на китайском рынке AI-чипов сейчас практически равна нулю.
Чип NVIDIA H200, представленный в 2024 году, является преемником флагманского H100 и предназначен для ускорения работы с большими языковыми моделями и высокопроизводительных вычислений. Его ключевым улучшением стала память HBM3e с увеличенной до 141 ГБ пропускной способностью, что значительно ускоряет обработку данных в задачах ИИ.







0 комментариев