NVIDIA развивает науку и технику с CUDA-X
Графический процессор (англ. graphics processing unit, GPU) — отдельное устройство персонального компьютера или игровой приставки, выполняющее графический рендеринг; в начале 2000-х годов графические процессоры стали массово применяться и в других устройствах: планшетные компьютеры, встраиваемые системы, цифровые телевизоры.
Современные графические процессоры очень эффективно обрабатывают и отображают компьютерную графику, благодаря специализированной конвейерной архитектуре они намного эффективнее в обработке графической информации, чем типичный центральный процессор.
Графический процессор в современных видеокартах (видеоадаптерах) применяется в качестве ускорителя трёхмерной графики. Википедия
Это значительно ускоряет и улучшает рабочие процессы в инженерном моделировании, оптимизации проектирования и многом другом, помогая ученым и исследователям быстрее достигать новаторских результатов. NVIDIA выпустила CUDA в 2006 году, открыв мир приложений для мощи ускоренных вычислений. С тех пор NVIDIA создала более 900 предметно-ориентированных библиотек NVIDIA CUDA-X и моделей ИИ, упрощая внедрение ускоренных вычислений и способствуя невероятным научным прорывам. Теперь CUDA-X привносит ускоренные вычисления в широкий новый набор инженерных дисциплин, включая астрономию, физику элементарных частиц, квантовую физику, автомобилестроение, аэрокосмическую промышленность и проектирование полупроводников.
Архитектура NVIDIA Grace CPU обеспечивает значительное увеличение пропускной способности памяти при одновременном снижении энергопотребления. А межсоединения NVIDIA NVLink-C2C обеспечивают такую высокую пропускную способность, что GPU и CPU могут совместно использовать память, позволяя разработчикам писать менее специализированный код, выполнять более масштабные задачи и повышать производительность приложений.
Ускорение инженерных решателей с помощью NVIDIA cuDSS
Архитектуры суперчипов NVIDIA позволяют пользователям извлекать большую производительность из того же базового графического процессора за счет более эффективного использования вычислительных возможностей центрального и графического процессоров.
Библиотека NVIDIA cuDSS используется для решения больших задач инженерного моделирования, включающих разреженные матрицы для таких приложений, как оптимизация проектирования, рабочие процессы электромагнитного моделирования и т. д. cuDSS использует память Grace GPU и высокоскоростное соединение NVLink-C2C для факторизации и решения больших матриц, которые обычно не помещаются в памяти устройства. Это позволяет пользователям решать чрезвычайно большие задачи за малую долю времени.
Совместно используемая память между GPU и Grace GPU минимизирует перемещение данных, значительно сокращая накладные расходы для больших систем. Для ряда крупных вычислительных инженерных задач использование памяти Grace CPU и архитектуры суперчипа ускорило самые тяжелые этапы решения до 4 раз с тем же GPU с гибридной памятью cuDSS.
Ansys интегрировала cuDSS в свой решатель HFSS, обеспечив значительное повышение производительности для электромагнитного моделирования. С cuDSS программное обеспечение HFSS достигает 11-кратного повышения скорости для решателя матриц.
Altair OptiStruct также использует библиотеку cuDSS Direct Sparse Solver, что существенно ускоряет рабочие нагрузки конечно-элементного анализа.
Этот прирост производительности достигается за счет оптимизации ключевых операций на графическом процессоре при разумном использовании ЦП для общей памяти и гетерогенного выполнения ЦП и ГП. cuDSS автоматически определяет области, в которых использование ЦП обеспечивает дополнительные преимущества, еще больше повышая эффективность.
Масштабирование на сверхсветовой скорости с памятью Superchip
Масштабирование приложений с ограниченным объемом памяти на одном графическом процессоре становится возможным благодаря межсоединениям NVLink-CNC архитектур GB200 и GH200, которые обеспечивают когерентность памяти центрального и графического процессоров.
Многие инженерные симуляции ограничены масштабом и требуют массивных симуляций для получения разрешения, необходимого для проектирования оборудования со сложными компонентами, например, авиационных двигателей. Используя возможность бесшовного чтения и записи между памятью ЦП и ГП, инженеры могут легко внедрять внешние решатели для обработки больших объемов данных.
Например, используя NVIDIA Warp — фреймворк на основе Python для ускорения генерации данных и пространственных вычислительных приложений — Autodesk выполнила моделирование до 48 миллиардов ячеек с использованием восьми узлов GH200. Это более чем в 5 раз больше, чем моделирование, возможное с использованием восьми узлов NVIDIA H100.
Поддержка исследований в области квантовых вычислений с помощью NVIDIA cuQuantum
Квантовые компьютеры обещают ускорить решение проблем, которые являются ключевыми для многих научных и промышленных дисциплин. Сокращение времени до полезных квантовых вычислений в значительной степени зависит от способности моделировать чрезвычайно сложные квантовые системы.
Моделирование позволяет исследователям разрабатывать новые алгоритмы сегодня, которые будут работать в масштабах, подходящих для квантовых компьютеров будущего. Они также играют ключевую роль в улучшении квантовых процессоров, выполняя сложные моделирования производительности и шумовых характеристик новых конструкций кубитов.
Так называемые симуляции векторов состояний квантовых алгоритмов требуют выполнения матричных операций над экспоненциально большими векторными объектами, которые должны храниться в памяти. С другой стороны, симуляции тензорных сетей имитируют квантовые алгоритмы посредством тензорных сокращений и могут позволить симулировать сотни или тысячи кубитов для определенных важных классов приложений.
Библиотека NVIDIA cuQuantum ускоряет эти рабочие нагрузки. cuQuantum интегрирована со всеми ведущими фреймворками квантовых вычислений, поэтому все исследователи квантовых вычислений могут использовать производительность моделирования без внесения изменений в код.
Масштаб симуляций квантовых алгоритмов обычно ограничен требованиями к памяти. Архитектуры GB200 и GH200 обеспечивают идеальную платформу для масштабирования квантовых симуляций, поскольку они позволяют использовать большую память ЦП без ухудшения производительности. Система GH200 до 3 раз быстрее, чем система H100 с x86 в тестах квантовых вычислений.
Источник: NVIDIA
0 комментариев