Китай оценивает возможность закупок чипов NVIDIA H200 после снятия экспортных ограничений

После того как США одобрили экспорт в Китай высокопроизводительных AI-чипов NVIDIA H200, китайские власти провели срочное совещание с ведущими технологическими компаниями страны. Целью встречи стала оценка их потребностей в новых чипах.

Как сообщается, совещание было организовано Государственным комитетом по развитию и реформам и Министерством промышленности и информатизации Китая. В нём приняли участие представители трёх крупнейших технологических гигантов, активно развивающих искусственный интеллект: ByteDance, Alibaba и Tencent.

В настоящее время китайские регуляторы рассматривают вопрос о том, разрешить ли местным компаниям закупать H200, и если да, то каким образом ограничить эти закупки. Для принятия решения от компаний потребовали предоставить прогнозы спроса на новые чипы, на основе которых впоследствии будут выпущены официальные рекомендации.

С 2022 года, когда США впервые ввели ограничения на экспорт чипов в Китай, именно эти два ведомства координируют закупки AI-процессоров. Сейчас они пытаются сбалансировать два противоречивых фактора. С одной стороны, правительство продолжает настаивать на максимальном использовании отечественных чипов, особенно в государственных компаниях и проектах. С другой стороны, в Китае пока не налажено массовое производство местных аналогов, способных конкурировать с H200 в задачах обучения больших языковых моделей.

Финансовые результаты NVIDIA демонстрируют последствия этих ограничений. Выручка от продаж в Китае специально разработанного чипа H20 в четвёртом квартале составила лишь 50 миллионов долларов, тогда как в первой половине года доход от аналогичных чипов достигал 4.6 миллиардов долларов. В целом, выручка NVIDIA на китайском рынке в четвёртом квартале упала на 63% в годовом исчислении, составив около 3 миллиардов долларов. Глава компании Дженсен Хуанг публично заявил, что доля NVIDIA на китайском рынке AI-чипов сейчас практически равна нулю.

Чип NVIDIA H200, представленный в 2024 году, является преемником флагманского H100 и предназначен для ускорения работы с большими языковыми моделями и высокопроизводительных вычислений. Его ключевым улучшением стала память HBM3e с увеличенной до 141 ГБ пропускной способностью, что значительно ускоряет обработку данных в задачах ИИ.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии