今日,AMD公布了2023年第四季度和全年财报,第四季度营收为62亿美元,全年营收为227亿美元,这得益于AMD Instinct GPU和EPYC™ CPU的季度销量创下历史新高,以及AMD Ryzen™处理器销量增长。
人工智能领域的快速发展超出了AMD的预期,并将之前确定的数据中心AI GPU产品2024年收入从20亿美元调整为35亿美元。 在大机型领域,AMD对其MI300X数据中心GPU产品充满希望,并表示也将有信心继续在CPU市场获得市场份额。 今年晚些时候,将推出一款采用全新 ZEN 5 架构的产品。
数据中心业务强劲增长,收入创历史新高
AMD在第四季度实现了62亿美元的收入,同比增长10%,主要来自数据中心和客户端业务,这两项业务都实现了两位数的同比增长。 然而,由于游戏业务的冲击,年营业额为227亿美元,同比下降4%。
在人工智能浪潮的推动下,AMD的数据中心业务在第四季度强劲增长。 本季度营收达到创纪录的 23 亿美元,同比增长 38%,环比增长 43%。 2023 年,AMD 数据中心事业部的收入为 65 亿美元,与 2022 年相比增长 7%,在 AMD Instinct GPU 和 AMD EPYC CPU 强劲增长的推动下,也实现了创纪录的年度增长。
AMD首席执行官苏姿丰在财报发布会上表示,尽管云业务市场整体需求环境依然疲软,但随着北美超大规模云服务厂商逐步部署第4代EPYC处理器,AMD的服务器CPU营收将逐年增加。 第四季度包括亚马逊、阿里巴巴、谷歌、Microsoft和甲骨文等供应商,这些供应商将部署超过 55 个由 AMD 提供支持的 AI、HPC 和通用云实例。 2023 年全年,部署了 800 多个基于 EPYC(霄龙)CPU 的公有云实例。 预计这一数字将在 2024 年继续增长。
目前,AMD 正在推动其 EPYC 服务器 CPU 在金融、能源、汽车、零售、科技和制药公司的扩展,在性能和功耗方面具有吞吐量,用于训练和推理 70 亿个 LLAMA 大型模型。 AMD表示,今年下半年推出的第五代EPYC(霄龙)CPU“都灵”将进一步提升AMD在数据中心业务的领导地位。
目前**的一些泄漏表明,“都灵”CPU采用了新一代Zen5架构,增加了新的内存扩展功能和更高的内核。 与基于 Zen4 的 *** 系列处理器相比,“都灵”的核心数量增加了 33%,L3 缓存增加了 33%。
第四季度AMD客户营收为15亿美元,同比增长62%,这得益于锐龙7000系列CPU的销售增长。 然而,全年由于PC市场的下滑,客户部门的营业额为47亿美元,与2022年相比下降了25%。
本季度游戏营收为 14 亿美元,同比下降 17%,环比下降 9%。 2023 年,游戏部门的收入为 62 亿美元,与 2022 年相比下降 9%,主要是由于半定制产品的销售额下降。
AMD 嵌入式本季度营收为 11 亿美元,同比下降 24%,环比下降 15%,原因是客户降低了库存水平。 2023 年,嵌入式收入达到 53 亿美元,与 2022 年相比增长 17%,这得益于赛灵思收购带来的全年收入。
在12月初举办的“推进AI”盛会上,AMD展示了AI和AMD解决方案从数据中心到PC带来的市场空间,并发布了两款AI芯片旗舰,Instinct MI300X和MI300A,以及引领AI PC时代的锐龙8040系列处理器。
据苏姿丰介绍,Q4AMD的数据中心GPU业务大幅加速,营收超过预期的4亿美元,这得益于Mi300X在客户中的快速采用,并得到了大型云服务提供商、OEM和众多领先的AI开发商的支持。 基于目前客户对MI300系列客户端的强烈需求和产品的市场推出,未来发展前景看好。
目前,AMD将人工智能视为其头号战略重点,并且有许多市场机会,其中最大的机会来自数据中心。 MI300 系列已成为 AMD 历史上增长最快的产品。 而2024年将是人工智能进一步集中实施的一年。 AMD预计,CPU、GPU、FPGA等AI数据中心业务的市场规模将从2023年的450亿美元增长到2027年的4000亿美元,复合年增长率超过50%。
AI领域的快速发展也导致AMD调整了营收预测,此前预计2024年数据中心AI GPU产品营收将超过20亿美元。 AMD在会上表示,这一数字将根据市场需求调整为35亿美元。
GPU仍是大型机型的首选,CPU的份额也在不断扩大
在本次财报发布会上,AMD最新数据中心GPU MI300X成为分析师最关注的话题。 Mi300X 由台积电制造,其第三代 cDNA 架构集成了多达 1530 亿个晶体管,使其成为目前最先进的数据中心 GPU 芯片。
苏立峰表示,随着越来越多的企业开展AI相关业务,开发大型模型,对推理的需求将超过训练,这一趋势将成为未来几年AI领域的一个显著特征,在相关硬件支持方面,考虑到不同类型的模型,从小模型到模型微调, 对于大型语言模型,对于不同的用例,需要不同的硬件,但从AMD的角度来看,GPU仍然是大型语言模型训练和推理的首选计算单元。
苏立峰表示,目前MI300系列展现出强大的牵引力,AMD依托其独特的小芯片技术,让芯片产品既可以同时拥有APU版本,又可以同时拥有GPU版本,从而获得内存带宽和容量的优势。
此外,AMD正在积极推动该生态系统以加强GPU生态系统,包括发布其开源ROCM 6的最新版本,这是一个针对生成式AI优化的软件堆栈。 AMD 还扩展了对 ROCM 软件的支持,包括 AMD Radeon RX 7900 XT GPU,为 AI 开发人员和研究人员提供了更多使用 AMD 硬件进行 AI 工作的选择。
苏姿丰表示,通过与顶级云服务商和主机厂的合作,ROCM 6一直在不断优化,目前进展顺利。 同时,也得到了开源社区的良好支持,包括与Hugging Face、Triton等厂商的合作,承载着AMD对进一步拓展GPU市场的期待。
Su 表示,与竞争对手相比,MI300 系列具有更大的带宽和内存容量,这意味着具有数百亿个参数的大型语言模型的 GPU 使用量更少,总体拥有成本更高。 在MI300方面,AMD认为路线图竞争非常激烈,预计今年每个季度的收入都会增加,随着产能等问题的改善,下半年的增长势头将更加明显。
尽管 GPU 在处理大型模型方面具有优势,但它们并不是唯一的选择。 在去年的“Advancing AI”活动上,极微记者看到了使用AMD EPYC 9654处理器运行LLAMA 2大型语言模型的演示,与竞争对手Xeon Platinum 8480相比,处理速度提升了36%。 这意味着,在某些场景下,依靠CPU提供的AI算力也可以处理大型模型,而不是仅仅依靠GPU,这对于GPU资源较少的企业来说非常有吸引力,也可以带来成本节约。
在数据中心CPU方面,AMD认为,每一代EPYC(霄龙)的推出都在帮助AMD扩大市场份额,去年Q4的营收创下了历史新高。 目前,Zen4架构与GENOA、Bergamo、Siena的应用显示出良好的竞争优势,而进入Zen5的“都灵”后,AMD仍将保持继续乐观地获得市场份额的预期。 此外,苏姿丰表示,2024年数据中心CPU的业务增长取决于宏观和整体资本支出的趋势,而从AMD的角度来看,基于节能等考量,可以看出一些大客户正在进入他们的基础设施产品更新周期,这将为AMD带来更多的机会。