Видеокарты Intel Arc Pro B-Series и процессоры Xeon 6 показали отличные результаты в тестах MLPerf Inference v5.1

/ (Обновлено: ) / ТехнологииНовости / Технологии

Сегодня, 9 сентября 2025 года, организация MLCommons опубликовала результаты последних тестов MLPerf Inference v5.1, демонстрирующие производительность систем Intel с GPU. Тестирование проводилось на шести ключевых бенчмарках для систем с процессорами Intel Xeon с P-ядрами и графикой Intel Arc Pro B60 в рабочих станциях под кодовым названием Project Battlematrix.

В тесте Llama 8B видеокарта Intel Arc Pro B60 показала преимущество в производительности на доллар до 1,25 раза по сравнению с NVIDIA RTX Pro 6000 и до 4 раз по сравнению с L40S. Эти результаты подчеркивают производительность и доступность полностью Intel-платформы для задач AI-инференса в высокопроизводительных рабочих станциях и периферийных приложениях.

«Результаты MLPerf v5.1 — это убедительное подтверждение стратегии Intel в области GPU и искусственного интеллекта. Наши видеокарты Arc Pro B-Series с новым программным стеком, оптимизированным для инференса, позволяют разработчикам и предприятиям создавать и развертывать AI-приложения на мощных, простых в настройке, доступных по цене и масштабируемых инференс-рабочих станциях». — Лиза Пирс, корпоративный вице-президент Intel и генеральный менеджер группы Software, GPU и NPU IP.

До сих пор у профессионалов, которые отдавали приоритет платформы с высокими показателями инференса без ущерба для конфиденциальности данных или высоких затрат на подписки для проприетарных AI-моделей, но требовали возможностей для развертывания больших языковых моделей (LLM), был ограниченный выбор.

Эти новые системы Intel с GPU, известные под кодовым названием Project Battlematrix, разработаны для удовлетворения потребностей современного AI-инференса и предоставляют комплексную платформу, сочетающую полностью проверенное аппаратное и программное обеспечение.

Системы Intel с GPU призваны упростить внедрение и удобство использования благодаря новому контейнерному решению, созданному для Linux-сред, оптимизированному для высокой производительности инференса с масштабированием на нескольких GPU и передачей данных PCIe P2P, а также включающему функции корпоративного уровня надежности и управляемости, такие как ECC, SRIOV, телеметрия и удаленное обновление прошивки.

Процессоры продолжают играть важную роль в AI-системах. Как центр оркестрации, CPU обрабатывает препроцессинг, передачу и общую координацию системы. Постоянные улучшения производительности AI на базе CPU за последние четыре года утвердили Intel Xeon как предпочтительный процессор для размещения и управления AI-нагрузками в системах с GPU.

Intel также остается единственным производителем, представляющим результаты для серверных CPU в MLPerf, демонстрируя лидерство и глубокую приверженность ускорению возможностей AI-инференса как в вычислительных, так и в акселераторных архитектурах. Примечательно, что Intel Xeon 6 с P-ядрами достиг улучшения производительности в 1,9 раза по сравнению с предыдущим поколением в MLPerf Inference v5.1.

Источник: Intel

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ в комментариях

Вы можете задать вопрос нашему ИИ-помощнику прямо в комментариях к этой статье. Он постарается быстро ответить или уточнить информацию.

⚠️ ИИ может ошибаться — проверяйте важную информацию.


0 комментариев

Оставить комментарий


Все комментарии - Технологии