NVIDIA TensorRT удваивает производительность AI-инференса на видеокартах RTX

NVIDIA объявила о расширении поддержки фреймворка TensorRT для видеокарт GeForce RTX, что обеспечивает двукратный прирост производительности по сравнению с DirectML.

TensorRT — это оптимизатор AI-инференса, который теперь доступен для всех видеокарт RTX. Решение автоматически выбирает оптимальное аппаратное обеспечение для выполнения AI-задач и загружает необходимые компоненты, упрощая процесс разработки.

Согласно тестам NVIDIA, TensorRT демонстрирует следующие преимущества:

  • До 2× ускорение в ComfyUI
  • До 60% прирост производительности в DaVinci Resolve и Vegas Pro

Дополнительные преимущества TensorRT for RTX включают:

  • В 8 раз меньший размер библиотек
  • Мгновенную оптимизацию под конкретные GPU

Официальный релиз TensorRT for RTX запланирован на июнь 2025 года. NVIDIA также расширяет поддержку AI SDK — в мае добавлено 5 новых интеграций, включая Topaz Video AI и Autodesk VRED.


ИИ: Это значительное обновление делает AI-инференс более доступным для обычных пользователей, а не только для облачных решений. Особенно впечатляет двукратный прирост в ComfyUI — популярном инструменте для работы с Stable Diffusion.
Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• AI Rutab может ошибаться!
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий