在全球AI芯片市场,AMD(Advanced Micro Devices)近日在Advancing AI Conference上发布了两款旗舰AI芯片产品MI300X和MI300A,正式宣布了AMD在AI领域的战略升级。 此举不仅引起了业界的广泛关注,也将为AI芯片市场带来新的格局。
Mi300X是AMD最新推出的专为生成式AI智能算力而设计的数据中心GPU,作为对英伟达在AI领域垄断地位的有力挑战,备受业界期待。
该产品基于AMD最新的第三代cDNA架构,拥有惊人的1530亿个晶体管,超过了Nvidia H100的800亿个晶体管。 在 8 位精度浮点数 (FP8) 计算方面,MI300X 可以达到 42 petaflops,与 H100 的 32 petaflops 相比,这是一个显着的计算优势。 内存方面,MI300X高达192GB,远超NVIDIA H100芯片的120GB内存。 内存容量的增加被认为有助于处理更大、更复杂的模型集,表明 AMD 对技术创新的不懈承诺。
据AMD称,MI300X由台积电制造,采用AMD最先进的工艺技术。 在性能和技术参数的综合考虑下,MI300X的推出引起了Meta、Microsoft等巨头的浓厚兴趣。 Meta 和 Microsoft 此前是 Nvidia H100 GPU 的最大买家,购买了约 150,000 台。 Microsoft首席技术官Kevin Scott在发布会上表示,Microsoft计划在Azure云服务中使用Mi300X,为AMD的新产品赢得了市场的强烈认可。
不过,对于Mi300X的价格,AMD并没有在发布会上公开透露。 根据市场传闻,英伟达的一款芯片售价约为 40,000 美元。 对此,AMD首席执行官苏姿丰曾表示,“AMD的新产品**和运营成本必须低于英伟达,才能让客户信服。 这一声明强调了AMD对市场竞争的信心,也显示了对MI300X市场定价的仔细考虑。
与MI300X齐头并进的是MI300A,这是AMD专为超级计算机设计的APU产品。 APU是将CPU和GPU融合在同一芯片上的加速器,是AMD过去几年一直在努力的技术方向。 Mi300A的发布标志着AMD在这一领域又向前迈进了一步。
MI300A 搭载 HBM3 内存,容量为 128GB,是下一代 MI250X,每瓦性能比几乎是其两倍。 它旨在满足超级计算机对高性能计算日益增长的需求。 这也体现了AMD在超级计算领域的不断努力,为全球高性能计算提供了更多样化的选择。
此外,MI300A在发布会上也受到了行业巨头的关注。 Meta 和甲骨文高管当场表示,他们将在自己的 AI 和数据中心服务中使用 Mi300A 加速器,从而为 AMD 在超级计算机领域赢得更多支持。
AMD发布MI300系列AI芯片的举动,引发了业界对AI芯片市场格局的重新思考。 由于英伟达目前占据了全球人工智能计算市场近90%的份额,AMD通过发布MI300X和MI300A,表现出了强烈的市场竞争欲望。
从市场反应来看,Meta、Microsoft、甲骨文等巨头的积极反应表明,AMD在这一领域的影响力正在逐步扩大。 Meta和Microsoft此前是Nvidia H100 GPU的主要买家,他们对Mi300X的高度兴趣预示着AMD将在全球数据中心市场获得更大的份额。
AMD总裁苏姿丰在发布会上表示,未来四年,数据中心AI芯片市场规模将超过4000亿美元,是上届的两倍多。 这一乐观的前景表明了AMD对未来市场的信心,也为其在AI领域的发展奠定了坚实的基础。
免责声明:以上内容来自网络,仅供习交流之用。 如果您有任何内容或版权问题,请留言并联系我们删除。