NVIDIA Blackwell занимает лидирующие позиции в последних результатах MLPerf Inference

В последних тестах MLPerf Inference V5.0, которые отражают некоторые из самых сложных сценариев вывода, платформа NVIDIA Blackwell установила рекорды и ознаменовала первую подачу NVIDIA MLPerf с использованием системы NVIDIA GB200 NVL72, стоечного решения, разработанного для рассуждений ИИ

Thumbnail: Искусственный интеллектИску́сственный интелле́кт (ИИ; англ. artificial intelligence, AI) — свойство искусственных интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека (не следует путать с искусственным сознанием); наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ. Искусственный интеллект связан со сходной задачей использования компьютеров для понимания человеческого интеллекта, но не обязательно ограничивается биологически правдоподобными методами. Существующие на сегодня интеллектуальные системы имеют довольно узкие области применения. Википедия

Читайте также:Lightmatter создала суперчип с фотонным ИИ-соединениемAyar Labs представляет первый в мире оптический чипсет UCIe для масштабируемых архитектур ИИКрах китайских центров обработки данных ИИTachyum показала DRAM для ИИ на Prodigy FPGA«Ведьмак»: CDPR не применяет генеративный ИИ

. Для реализации обещания передового ИИ требуется новый тип вычислительной инфраструктуры, называемый фабриками ИИ. В отличие от традиционных центров обработки данных, фабрики ИИ делают больше, чем просто хранят и обрабатывают данные — они производят интеллект в масштабе, преобразуя необработанные данные в идеи в реальном времени. Цель фабрик ИИ проста: быстро, с минимальными затратами и как можно большему количеству пользователей предоставлять точные ответы на запросы.

Сложность выполнения этого значительна и происходит за кулисами. По мере того, как модели ИИ разрастаются до миллиардов и триллионов параметров для предоставления более умных ответов, вычисления, необходимые для генерации каждого токена, увеличиваются. Это требование уменьшает количество токенов, которые может генерировать фабрика ИИ, и увеличивает стоимость за токен. Поддержание высокой пропускной способности вывода и низкой стоимости за токен требует быстрых инноваций на каждом уровне технологического стека, охватывающего кремний, сетевые системы и программное обеспечение.

Последние обновления MLPerf Inference, рецензируемого отраслевого бенчмарка производительности вывода, включают добавление Llama 3.1 405B, одной из самых больших и сложных для запуска моделей open-weight. Новый интерактивный бенчмарк Llama 2 70B имеет гораздо более строгие требования к задержке по сравнению с исходным бенчмарком Llama 2 70B, лучше отражая ограничения производственных развертываний для предоставления наилучшего пользовательского опыта.

Помимо платформы Blackwell, исключительную производительность по всем направлениям продемонстрировала платформа NVIDIA Hopper, при этом производительность Llama 2 70B значительно возросла за последний год благодаря оптимизации всего стека.

NVIDIA Blackwell устанавливает новые рекорды
Система GB200 NVL72, объединяющая 72 графических процессора NVIDIA Blackwell для работы в качестве одного массивного графического процессора, обеспечила в 30 раз большую пропускную способность на тесте Llama 3.1 405B по сравнению с NVIDIA H200 NVL8, представленной в этом раунде. Этот подвиг был достигнут за счет более чем утроенной производительности на графический процессор и в 9 раз большего домена межсоединений NVIDIA NVLink.

В то время как многие компании запускают тесты MLPerf на своем оборудовании для оценки производительности, только NVIDIA и ее партнеры представили и опубликовали результаты теста Llama 3.1 405B.

Развертывания производственного вывода часто имеют ограничения по задержке по двум ключевым метрикам. Первый — это время до первого токена (TTFT), или сколько времени требуется пользователю, чтобы начать видеть ответ на запрос, заданный большой языковой модели. Второй — это время на выходной токен (TPOT), или как быстро токены доставляются пользователю.

Новый интерактивный бенчмарк Llama 2 70B имеет в 5 раз более короткий TPOT и в 4,4 раза более низкий TTFT, моделируя более отзывчивый пользовательский опыт. В этом тесте заявка NVIDIA с использованием системы NVIDIA DGX B200 с восемью графическими процессорами Blackwell утроила производительность по сравнению с использованием восьми графических процессоров NVIDIA H200, установив высокую планку для этой более сложной версии бенчмарка Llama 2 70B.

Сочетание архитектуры Blackwell и ее оптимизированного программного стека обеспечивает новый уровень производительности вывода, открывая путь для фабрик искусственного интеллекта, которые смогут обеспечить более высокий уровень интеллекта, увеличенную пропускную способность и более высокую скорость обработки токенов.

Стоимость фабрики NVIDIA Hopper AI продолжает расти
Архитектура NVIDIA Hopper, представленная в 2022 году, обеспечивает работу многих современных фабрик вывода ИИ и продолжает обеспечивать обучение моделей. Благодаря постоянной оптимизации программного обеспечения NVIDIA увеличивает производительность фабрик ИИ на базе Hopper, что приводит к повышению ценности.

На бенчмарке Llama 2 70B, впервые представленном год назад в MLPerf Inference v4.0, пропускная способность H100 GPU увеличилась в 1,5 раза. H200 GPU, основанный на той же архитектуре Hopper GPU с большей и более быстрой памятью GPU, расширяет это увеличение до 1,6 раза.

Hopper также выполнил все бенчмарки, включая недавно добавленные Llama 3.1 405B, Llama 2 70B Interactive и графовые тесты нейронной сети. Эта универсальность означает, что Hopper может выполнять широкий спектр рабочих нагрузок и идти в ногу со временем, когда модели и сценарии использования становятся все более сложными.

Нужна экосистема
В этом раунде MLPerf 15 партнеров представили выдающиеся результаты на платформе NVIDIA, среди которых ASUS, Cisco, CoreWeave, Dell Technologies, Fujitsu, Giga Computing, Google Cloud, Hewlett Packard Enterprise, Lambda, Lenovo, Oracle Cloud Infrastructure, Quanta Cloud Technology, Supermicro, Sustainable Metal Cloud и VMware.

Разнообразие заявок отражает охват платформы NVIDIA, которая доступна всем поставщикам облачных услуг и производителям серверов по всему миру.

Работа MLCommons по постоянному совершенствованию набора тестов MLPerf Inference для соответствия новейшим разработкам в области ИИ и предоставления экосистеме точных, проверенных экспертами данных о производительности имеет решающее значение для оказания помощи лицам, принимающим решения в области ИТ, в выборе оптимальной инфраструктуры ИИ.

Источник: NVIDIA

Подписаться на обновления Новости / Технологии

0 комментариев

Оставить комментарий


Новые комментарии

Можно делать смартфоны и планшеты на этом процессоре и наконец то использовать полноценную windows. Это отличная замена процессорам arm
  • Анон
Странно почему не 50 долларов.
  • Анон
Понимаю мощь производительность и все дела, но как черт возьми тепло отделять от камня если его прям нагрузить
  • Анон
Не предвзятость это - "Интересно, что Arc B580 проигрывает RTX 4060 в OpenCL" - где разница на невероятных 3,5 %, "но реабилитируется с НЕЗНАЧИТЕЛЬНЫМ 6%-ным преимуществом в Vulkan.". Не...
  • Анон
"Физика вышла из чата"??? Каким образом они добилис свечения точек, которые меньше четверти длины волны???
  • Анон
И теперь нельзя отключить авто обновление!!! Это жесть
  • Анон
Не знаю, я купил Cougar850 80Gold за 10К₽ и нормально
  • Анон
После всех роликов я одно понял у этой игры которую выпустят 20 мая у неё большое будущее
  • Анон
Когда они в продаже появятся? Уже как бы конец февраля, а нигде нет..
  • Анон

Смотреть все