NVIDIA представит революционный LPU-чип для ИИ: в 10 раз быстрее H100 и в 100 раз быстрее GPU
Генеральный директор NVIDIA Дженсен Хуан ранее заявлял о планах выпустить «беспрецедентный» чип для искусственного интеллекта. В сети предполагали, что речь идёт о новом поколении графических процессоров «Ферми» (Fermi) на передовом техпроцессе TSMC A16. Однако, как выяснилось, грядущая новинка — это не GPU.
Новый чип называется LPU (Language Processing Unit) — процессор для обработки естественного языка. Изначально эта архитектура была разработана компанией Groq, основанной бывшим создателем чипов TPU в Google. NVIDIA недавно объявила о сделке на 200 миллиардов долларов, в рамках которой приобрела технологии LPU у Groq, но не саму компанию целиком.
Хотя современные ИИ-ускорители NVIDIA лидируют в большинстве задач, отрасль вступает в фазу массового внедрения и инференса (логического вывода), где критически важны низкая задержка и стоимость. Чипы NVIDIA, приносящие компании 75% валовой прибыли, оказываются слишком дорогими для многих сценариев.
LPU же создан специально для работы с большими языковыми моделями. По заявлению Groq, такие чипы способны выполнять инференс в 10 раз быстрее, чем флагманский H100, при этом их стоимость составляет лишь десятую часть от цены GPU. Это открывает путь к предоставлению «реального времени» и экономичных ИИ-сервисов для бизнеса по всему миру.
Инвестировав 200 миллиардов долларов в технологию, NVIDIA намерена сделать LPU одной из центральных тем на предстоящей конференции GTC, которая стартует 16 марта по тихоокеанскому времени (17 марта в 02:00 по московскому времени). Ожидается, что компания представит собственную разработку на базе лицензированной архитектуры Groq, создав таким образом абсолютно новую продуктовую линейку.
Точное название, спецификации и дата выхода нового LPU от NVIDIA будут раскрыты на GTC. Это может стать серьёзным шагом в сторону специализированных, более доступных и энергоэффективных решений для ИИ, дополняющих традиционные GPU.







0 комментариев