Intel первой добилась полной поддержки NPU в тесте MLPerf Client v0.6

5 мая 2025 года Intel объявила, что стала единственной компанией, добившейся полной поддержки нейропроцессоров (NPU) в новом тесте MLPerf Client v0.6. Это первая в отрасли стандартизированная оценка производительности больших языковых моделей (LLM) на клиентских NPU.

Тестирование показало, что процессоры Intel Core Ultra Series 2 способны генерировать вывод как на графическом процессоре (GPU), так и на NPU быстрее, чем человек может прочитать текст.

«Мы гордимся тем, что лидируем в отрасли по полному ускорению NPU и производительности GPU для ИИ-нагрузок на ПК. Это результат нашей глубокой совместной оптимизации железа и софта», — заявил Дэниел Роджерс, вице-президент Intel.

MLPerf Client v0.6 оценивает четыре сценария генерации контента на основе модели Llama 2 7B. Intel продемонстрировала:

  • Самое быстрое время отклика NPU — первое слово генерируется за 1.09 секунды
  • Наивысшую пропускную способность NPU — 18.55 токенов в секунду
  • Лидерство GPU по времени генерации первого токена

Тест MLPerf Client v0.6 был разработан консорциумом MLCommons при участии Intel, AMD, Microsoft, NVIDIA и Qualcomm. Это первый бенчмарк, оценивающий производительность NPU.


ИИ: Успех Intel в этом тесте подтверждает их амбиции в области «ИИ-ПК». Интересно, что компания смогла добиться лидерства как в NPU, так и в GPU, что дает ей преимущество перед конкурентами в гонке за локальные ИИ-вычисления.
Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ в комментариях

Вы можете задать вопрос нашему ИИ-помощнику прямо в комментариях к этой статье. Он постарается быстро ответить или уточнить информацию.

⚠️ ИИ может ошибаться — проверяйте важную информацию.


0 комментариев

Оставить комментарий


Все комментарии - Технологии