Новая технология 3D-памяти от d-Matrix может превзойти HBM в задачах ИИ-инференса

Стартап d-Matrix заявляет, что его 3D-память будет до 10 раз быстрее и эффективнее, чем HBM (High Bandwidth Memory). Технология 3D Digital In-Memory Compute (3DIMC) компании представляет собой решение для типа памяти, специально созданного для задач ИИ-инференса.

Высокопроизводительная память HBM стала неотъемлемой частью искусственного интеллекта и высокопроизводительных вычислений. Однако, хотя её популярность продолжает расти, HBM может быть не лучшим решением для всех вычислительных задач: если она критична для обучения ИИ, то в инференсе её могут превзойти другие технологии.

d-Matrix уже запустила в лаборатории свой чип Pavehawk 3DIMC. Аппаратное обеспечение Digital In-Memory Compute в настоящее время выглядит как кристаллы памяти LPDDR5 с чиплетами DIMC, расположенными сверху и соединёнными через интерпозер. Такая конфигурация позволяет аппаратуре DIMC выполнять вычисления непосредственно в памяти. Логические кристаллы DIMC оптимизированы для матрично-векторного умножения — распространённой операции в трансформерных моделях ИИ.

«Мы считаем, что будущее ИИ-инференса зависит от переосмысления не только вычислений, но и самой памяти, — заявил основатель и генеральный директор d-Matrix Сид Шетх. — Инференс ИИ ограничен памятью, а не только FLOPs. Модели быстро растут, а традиционные системы памяти HBM становятся очень дорогими, энергоёмкими и ограниченными по пропускной способности. 3DIMC меняет правила игры. Стекируя память в трёх измерениях и теснее интегрируя её с вычислениями, мы значительно снижаем задержки, улучшаем пропускную способность и открываем новые возможности для повышения эффективности».

Сейчас Pavehawk работает в лабораториях d-Matrix, и компания уже смотрит в будущее — на следующее поколение Raptor. В сообщениях компании утверждается, что это поколение, также построенное на модели чиплетов, превзойдёт HBM в 10 раз в задачах инференса при потреблении на 90% меньше энергии.

Проект DIMC от d-Matrix следует тенденции, которую мы наблюдаем у недавних стартапов и технических теоретиков: специфические вычислительные задачи, такие как обучение ИИ и инференс, должны иметь аппаратное обеспечение, специально разработанное для эффективного выполнения именно этих задач. d-Matrix утверждает, что ИИ-инференс, который сейчас составляет 50% рабочих нагрузок ИИ у некоторых гиперскейлеров, достаточно отличается от обучения, чтобы заслуживать отдельный тип памяти.

Замена HBM также привлекательна с финансовой точки зрения. HBM производят лишь несколько глобальных компаний, включая SK hynix, Samsung и Micron, и её цены далеко не низкие. SK hynix недавно оценила, что рынок HBM будет расти на 30% ежегодно до 2030 года, а цены будут расти вслед за спросом. Альтернатива этому гиганту может быть привлекательной для экономных покупателей ИИ-решений, хотя память, сделанная исключительно для определённых рабочих процессов и вычислений, может показаться слишком узконаправленной для потенциальных клиентов, опасающихся пузырей.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Технологии