美光科技周一表示,已开始大规模生产其HBM3E内存。 该公司的 HBM3E 已知良好堆栈芯片 (KGSD) 将用于 NVIDIA 的 H200 计算 GPU,用于人工智能 (AI) 和高性能计算 (HPC) 应用,将于 2024 年第二季度发货。
美光透露,它正在量产 24 GB 8-Hi HBM3E 设备,每台设备的数据传输速率为 9 个2 GT s,峰值内存带宽大于 12 tb/s。与 HBM3 相比,HBM3E 将数据传输速率和峰值内存带宽提高了 44%,这对于像 NVIDIA H200 这样需要带宽的处理器尤为重要。
NVIDIA 的 H200 产品使用 Hopper 架构,具有与 H100 相同的计算性能。 同时,它配备了 141 GB 的 HBM3E 内存,带宽高达 48 TBS,比 H100 HBM80 和 3 多 GB35 TBS的带宽是一个显着的增加。
美光使用其 1 (1-Beta) 工艺技术生产其 HBM3E,这是该公司的一项重大成就,因为它将其最新的生产节点用于数据中心级产品,这是对制造技术的考验。 随着美光即将于 2024 年 3 月发布 36 GB 12-Hi HBM3E,该公司的 AI 内存路线图进一步巩固,而这些设备下一步将在哪里使用还有待观察。
在竞争对手SK海力士和三星之前开始量产HBM3E存储器是美光的一项重大成就,该公司目前在HBM领域拥有10%的市场份额。 此举对该公司至关重要,因为它使美光能够比竞争对手更早地推出高端产品,从而有可能增加收入和利润率,同时获得更大的市场份额。
美光科技执行副总裁兼首席商务官 Sumit Sadana 表示:"美光在这一 HBM3E 里程碑上连续三次获得冠军:领先的上市时间、一流的行业性能和差异化的能效功能。 AI 工作负载严重依赖内存带宽和容量,而美光已做好充分准备,通过我们行业领先的 HBM3E 和 HBM4 路线图,以及我们针对 AI 应用的全套 DRAM 和 NAND 解决方案组合,支持未来 AI 的大规模增长。 "