Micron и TSMC объединились для производства памяти HBM4E к 2027 году
Компания Micron подтвердила партнерство с TSMC для производства базовых логических кристаллов для памяти следующего поколения HBM4E. Целевой срок начала производства — 2027 год. Это заявление было сделано во время отчета о прибылях и убытках Micron за четвертый финансовый квартал 23 сентября.
Micron уже поставляет ранние образцы HBM4 со скоростью более 11 Гбит/с на контакт, что обеспечивает пропускную способность до 2,8 ТБ/с, и закрепила большую часть своих поставок HBM3E на 2026 год. Ключевым моментом является то, что Micron поручит TSMC производство как стандартных, так и кастомизированных логических кристаллов для HBM4E, открывая путь к созданию специализированных решений для задач искусственного интеллекта.
Полунастраиваемая подсистема
Отрасль уже знакома с roadmap HBM: HBM3E сегодня, HBM4 в 2025–2026 годах и HBM4E около 2027 года. Каждое новое поколение приносит более высокую скорость передачи данных и более высокие стеки памяти. SK hynix уже подтвердила 12-слойный HBM4 с полным 2048-битным интерфейсом, работающим на скорости 10 GT/s. Micron поставляет свои стеки HBM4 и заявляет о более чем 20% лучшей эффективности по сравнению с HBM3E.
HBM4E является продолжением этого плана, но Micron рассматривает его как нечто большее. Компания подчеркивает, что базовый кристалл будет производиться на мощностях TSMC, а не внутри компании, и что кастомизированные проекты будут предлагаться клиентам, готовым платить надбавку. Это эффективно превращает HBM в полунастраиваемую подсистему. Вместо универсального интерфейсного слоя производители GPU смогут запрашивать дополнительную SRAM-память, специализированные блоки сжатия или оптимизированные сигнальные пути.
Изображение: SK hynix
Важность для ИИ
Сроки планов Micron по HBM4E выглядят неслучайными. У Nvidia и AMD запланированы GPU следующего поколения для центров обработки данных на 2026 год, которые будут использовать HBM4, а HBM4E идеально подходит для их преемников.
Архитектура Nvidia Rubin, ожидаемая после Blackwell в 2026 году, построена вокруг HBM4. Ожидается, что GPU класса Rubin обеспечат пропускную способность памяти около 13 ТБ/с и до 288 ГБ емкости. Платформа-преемник, Rubin Ultra, уже значится в roadmap Nvidia на 2027 год и будет использовать HBM4E с поддержкой до терабайта памяти на GPU.
Траектория AMD столь же агрессивна. Ее семейство Instinct MI400, ожидаемое примерно в то же время, что и Rubin, также переходит на HBM4. Утечки предполагают до 432 ГБ HBM4 и пропускную способность 19,6 ТБ/с. После этого ожидается переход на HBM4E в 2027 или 2028 году.
Партнерство Micron с TSMC становится особенно важным для синхронизации с потребностями будущих ускорителей ИИ. Micron намерена сделать HBM4E широко распространенным компонентом инфраструктуры ИИ, потенциально установив его в качестве стандарта для AI-узлов во второй половине десятилетия.
Источник: Tomshardware.com
0 комментариев