HBM3E DRAM 将改善生成式 AI 服务并降低成本。
人工智能热潮如火如荼,芯片制造商正在推出新的先进内存技术。 下一代高带宽内存 (HBM) 有望显著提高带宽和容量,三星的目标是引领行业。
尽管在HBM3E市场有点晚,但三星推出了HBM3E 12H DRAM芯片,作为3D分层内存技术的突破性成就。 这家韩国巨头的最新存储芯片采用新颖的 12 层堆栈,与具有 50 层堆栈的 HBM3E 芯片相比,性能和容量提高了 8%。
三星声称 HBM3E 12H 芯片可以实现每秒高达 1,280 GB 的带宽,提供前所未有的 36 GB 容量。 三星利用先进的热压缩非导电膜 (TC NCF) 在同一芯片中实现 12 层堆叠,似乎保持了与 8 层芯片相同的高度规格,满足了当前 HBM 内存封装应用的要求。
TC NCF 还具有实现业界最小的 7 微米芯片间隙的额外优势,同时还减少了层与层之间的空隙。 与HBM3E 8H芯片相比,垂直DRAM密度最多可提高20%。 据我们所知,制造工艺的改进也提供了更好的热性能和更高的产品良率。
这家总部位于首尔的公司预计,随着对DRAM内存的需求持续增长,其最新一代HBM3E(12H)芯片将为AI加速器提供“同类最佳”的解决方案。 与 HBM3 8H 芯片相比,三星的 HBM3E 12H 内存似乎平均快 34% 用于 AI 模型训练。 此外,该公司声称推理服务的并发用户数量可以扩大“115 倍以上”。
三星目前正在向部分客户提供首款 HBM3E 12H 芯片样品,预计将于 2024 年上半年量产。 与此同时,HBM3E市场的另一个主要参与者美光宣布全面生产其最新的3D存储芯片。 这家总部位于爱达荷州的公司正在大力投资“传统”的 8 层 HBM3E 芯片设计,以改善其 2024 财年的财务业绩。
美光将为 NVIDIA 即将推出的 H8H HBM3E 提供 200GB 8Hbm 芯片,用于其即将推出的 H8 Tensor Core GPU,这是一款强大的 AI 加速器,将于 2024 年下半年上市。 与三星类似,美光将其 HBM3E 技术定位为用于密集型应用和生成式 AI 服务的领先内存解决方案。
Hbm3E 芯片的引脚速度超过每秒 9 个2 Gb (GBS),每秒提供超过 1 个2 TB 的内存带宽。 该公司表示,它的功耗比竞争对手低30%,24GB的容量使数据中心运营商能够“无缝扩展”,用于广泛的人工智能应用。
美光执行副总裁兼首席商务官Sumit Sadana强调,在人工智能需求激增的情况下,该公司的新型HBM3E芯片可以支持业务增长。 展望未来,美光正准备在3月份提供36GB 12高HBM3E芯片的首批样品。
中国科技年