Nvidia представила архитектуру хранения BlueField-4 STX для агентного ИИ на GTC 2026
Nvidia анонсировала BlueField-4 STX на конференции GTC 2026 16 марта. Это модульная эталонная архитектура для ускоренного хранения данных, созданная для решения проблемы узкого места в доступе к данным, которое ограничивает вывод агентного искусственного интеллекта.
Построенная вокруг нового BlueField-4 DPU, оптимизированного для систем хранения, и SuperNIC ConnectX-9, платформа нацелена на проблему неполной загрузки GPU. Она возникает, когда ИИ-агенты, работающие в длительных сессиях с расширяющимися контекстными окнами, превышают пропускную способность традиционных путей доступа к хранилищу. По заявлению Nvidia, STX обеспечивает до пятикратной пропускной способности по токенам, в четыре раза лучшую энергоэффективность и вдвое более высокую скорость загрузки страниц по сравнению с традиционными CPU-ориентированными архитектурами хранения.
Конкретная проблема, которую Nvidia решает с помощью STX, — это управление кэшем ключ-значение (KV cache). Во время инференса трансформеров механизм внимания вычисляет пары ключ-значение для каждого токена в контексте, которые должны храниться и извлекаться на каждом последующем шаге генерации. Но эти контекстные окна растут до сотен тысяч токенов, а значит, кэш KV перерастает возможности HBM-памяти GPU. Обычное решение — выгрузить данные в оперативную память хоста или на NVMe-накопитель, но оба маршрута проходят через CPU, добавляя задержку, которая накапливается с увеличением длины контекста и приостанавливает выполнение на GPU, пока данные передаются.
STX обходит хост-процессор, направляя данные через выделенный ускоренный слой хранения посредством RDMA поверх Spectrum-X Ethernet. BlueField-4 напрямую управляет NVMe SSD и обрабатывает целостность данных и шифрование для кэша KV, сохраняя контекст доступным на уровне процессора хранения, а не передавая его через хост. Полный стек работает на платформе Vera Rubin и интегрирует процессор Vera — также анонсированный на GTC 16 марта — вместе с ConnectX-9, Spectrum-X Ethernet, ПО DOCA и ПО AI Enterprise. Первая реализация масштаба стойки, построенная на STX, — это платформа хранения контекстной памяти Nvidia CMX.
Среди вендоров систем хранения и инфраструктуры, совместно разрабатывающих системы на базе STX, — DDN, Dell Technologies, HPE, IBM, NetApp и VAST Data, а также производственные партнёры AIC, Supermicro и Quanta Cloud Technology. Между тем восемь облачных и ИИ-провайдеров, включая CoreWeave, Lambda, Mistral AI и Oracle Cloud Infrastructure, заявили о раннем внедрении для хранения контекстной памяти. Ожидается, что платформы на базе STX от партнёров появятся во второй половине 2026 года.
«Агентный ИИ переопределяет то, на что способно программное обеспечение, — и вычислительная инфраструктура, стоящая за ним, должна быть переосмыслена, чтобы успевать за ним», — заявил основатель и генеральный директор Nvidia Дженсен Хуанг на GTC. — «ИИ-системы, которые рассуждают в рамках огромного контекста и постоянно обучаются, требуют нового класса систем хранения».
Источник: Tomshardware.com













0 комментариев