Micron и TSMC объединились для производства памяти HBM4E к 2027 году

Компания Micron подтвердила партнерство с TSMC для производства базовых логических кристаллов для памяти следующего поколения HBM4E. Целевой срок начала производства — 2027 год. Это заявление было сделано во время отчета о прибылях и убытках Micron за четвертый финансовый квартал 23 сентября.

Micron уже поставляет ранние образцы HBM4 со скоростью более 11 Гбит/с на контакт, что обеспечивает пропускную способность до 2,8 ТБ/с, и закрепила большую часть своих поставок HBM3E на 2026 год. Ключевым моментом является то, что Micron поручит TSMC производство как стандартных, так и кастомизированных логических кристаллов для HBM4E, открывая путь к созданию специализированных решений для задач искусственного интеллекта.

Полунастраиваемая подсистема

Отрасль уже знакома с roadmap HBM: HBM3E сегодня, HBM4 в 2025–2026 годах и HBM4E около 2027 года. Каждое новое поколение приносит более высокую скорость передачи данных и более высокие стеки памяти. SK hynix уже подтвердила 12-слойный HBM4 с полным 2048-битным интерфейсом, работающим на скорости 10 GT/s. Micron поставляет свои стеки HBM4 и заявляет о более чем 20% лучшей эффективности по сравнению с HBM3E.

HBM4E является продолжением этого плана, но Micron рассматривает его как нечто большее. Компания подчеркивает, что базовый кристалл будет производиться на мощностях TSMC, а не внутри компании, и что кастомизированные проекты будут предлагаться клиентам, готовым платить надбавку. Это эффективно превращает HBM в полунастраиваемую подсистему. Вместо универсального интерфейсного слоя производители GPU смогут запрашивать дополнительную SRAM-память, специализированные блоки сжатия или оптимизированные сигнальные пути.

Изображение: SK hynix

Важность для ИИ

Сроки планов Micron по HBM4E выглядят неслучайными. У Nvidia и AMD запланированы GPU следующего поколения для центров обработки данных на 2026 год, которые будут использовать HBM4, а HBM4E идеально подходит для их преемников.

Архитектура Nvidia Rubin, ожидаемая после Blackwell в 2026 году, построена вокруг HBM4. Ожидается, что GPU класса Rubin обеспечат пропускную способность памяти около 13 ТБ/с и до 288 ГБ емкости. Платформа-преемник, Rubin Ultra, уже значится в roadmap Nvidia на 2027 год и будет использовать HBM4E с поддержкой до терабайта памяти на GPU.

Траектория AMD столь же агрессивна. Ее семейство Instinct MI400, ожидаемое примерно в то же время, что и Rubin, также переходит на HBM4. Утечки предполагают до 432 ГБ HBM4 и пропускную способность 19,6 ТБ/с. После этого ожидается переход на HBM4E в 2027 или 2028 году.

Партнерство Micron с TSMC становится особенно важным для синхронизации с потребностями будущих ускорителей ИИ. Micron намерена сделать HBM4E широко распространенным компонентом инфраструктуры ИИ, потенциально установив его в качестве стандарта для AI-узлов во второй половине десятилетия.

Источник: Tomshardware.com

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Технологии