Видеокарты Intel Arc Pro B-Series и процессоры Xeon 6 показали отличные результаты в тестах MLPerf Inference v5.1
Сегодня, 9 сентября 2025 года, организация MLCommons опубликовала результаты последних тестов MLPerf Inference v5.1, демонстрирующие производительность систем Intel с GPU. Тестирование проводилось на шести ключевых бенчмарках для систем с процессорами Intel Xeon с P-ядрами и графикой Intel Arc Pro B60 в рабочих станциях под кодовым названием Project Battlematrix.
В тесте Llama 8B видеокарта Intel Arc Pro B60 показала преимущество в производительности на доллар до 1,25 раза по сравнению с NVIDIA RTX Pro 6000 и до 4 раз по сравнению с L40S. Эти результаты подчеркивают производительность и доступность полностью Intel-платформы для задач AI-инференса в высокопроизводительных рабочих станциях и периферийных приложениях.
«Результаты MLPerf v5.1 — это убедительное подтверждение стратегии Intel в области GPU и искусственного интеллекта. Наши видеокарты Arc Pro B-Series с новым программным стеком, оптимизированным для инференса, позволяют разработчикам и предприятиям создавать и развертывать AI-приложения на мощных, простых в настройке, доступных по цене и масштабируемых инференс-рабочих станциях». — Лиза Пирс, корпоративный вице-президент Intel и генеральный менеджер группы Software, GPU и NPU IP.
До сих пор у профессионалов, которые отдавали приоритет платформы с высокими показателями инференса без ущерба для конфиденциальности данных или высоких затрат на подписки для проприетарных AI-моделей, но требовали возможностей для развертывания больших языковых моделей (LLM), был ограниченный выбор.
Эти новые системы Intel с GPU, известные под кодовым названием Project Battlematrix, разработаны для удовлетворения потребностей современного AI-инференса и предоставляют комплексную платформу, сочетающую полностью проверенное аппаратное и программное обеспечение.
Системы Intel с GPU призваны упростить внедрение и удобство использования благодаря новому контейнерному решению, созданному для Linux-сред, оптимизированному для высокой производительности инференса с масштабированием на нескольких GPU и передачей данных PCIe P2P, а также включающему функции корпоративного уровня надежности и управляемости, такие как ECC, SRIOV, телеметрия и удаленное обновление прошивки.
Процессоры продолжают играть важную роль в AI-системах. Как центр оркестрации, CPU обрабатывает препроцессинг, передачу и общую координацию системы. Постоянные улучшения производительности AI на базе CPU за последние четыре года утвердили Intel Xeon как предпочтительный процессор для размещения и управления AI-нагрузками в системах с GPU.
Intel также остается единственным производителем, представляющим результаты для серверных CPU в MLPerf, демонстрируя лидерство и глубокую приверженность ускорению возможностей AI-инференса как в вычислительных, так и в акселераторных архитектурах. Примечательно, что Intel Xeon 6 с P-ядрами достиг улучшения производительности в 1,9 раза по сравнению с предыдущим поколением в MLPerf Inference v5.1.
Источник: Intel







0 комментариев