AI时代,算力需求激增,高速光模块随波逐流

小夏 科技 更新 2024-02-27

2.光收发器行业概况

从2022年到2028年,全球光模块市场规模CAGR将达到12%,预计到2028年全球规模将超过200亿美元。 根据Yole Intelligence的数据,2022年全球光模块市场规模为110亿美元,预计2028年将增长至223亿美元,2022年至2028年复合年增长率为12%,受大型云服务运营商对800G高数据速率模块的高需求以及国家电信增加光纤网络容量的需求推动。

国内市场对光模块的需求量在20亿至30亿美元之间,约占全球的1 4。 据lightcounting**统计,2018-2023年中国光模块部署占全球总量的25%-35%,2024-2029年占20%-25%,略有下降。 北美云服务提供商有积极的计划在人工智能集群中部署800G,这将是未来2-3年中国份额下降的一个主要因素。

2.1.运营商在电信市场的资本支出稳定长,支出占比向算力网络倾斜

电信市场方面,自2019年宣布5G商用服务以来,三大电信运营商资本支出呈现平稳增长态势,2019年资本支出总额约为2999亿元,预计到2023年约为3591亿元,年化复合增长率为461%。2019年是5G网络建设的元年,随后是2020-2022年5G发展的高峰。

2019年6月6日,工业和信息化部向三大运营商和中国广电颁发了5G商用牌照,同年首批5G基站建成15万个,2019-2023年平均每年新增5G基站67个540,000 台。 在5G领域,光模块主要应用于前传、中传和回传,其中前传主要对应25G 50G光模块,中传主要对应50G 100G光模块,回传主要对应100G 200G 400G光模块。

三大电信运营商正在逐步加大对工业互联网和算力网络的投入。 2023年,中国移动预计资本支出将达到1832亿元,其中算力网络支出452亿元,同比增长近35%,新增云服务器超过24万台,新增IDC机架超过4万台。 中国电信预计2023年资本支出将达到990亿元,工业数字化投资预计将增长40%,其中算力195亿元,IDC95亿元。 2022年,中国联通算力网络占资本支出的16%8%,公司预计2023年算力网络资本支出将达到149亿元,占总资本支出的19%4%,同比增长20%以上。

2.2.高昂的资本支出和网络架构的升级已成为提升数据通信市场景气度的核心驱动力

北美四大云服务提供商约占全球资本支出的85%,2019-2022年CAPEC资本支出年化复合增长率高达3077%。根据 Counterpoint Research** 的数据,北美前四大云服务提供商 Microsoft、亚马逊、谷歌和 Meta 将占 2023 年全球资本支出总额的 85%。 其中,2022年整体资本支出放缓,可能归因于疫情导致的全球经济下滑,但自23Q2以来已逐步恢复。

全球数据规模的扩大加速了数据中心建设的投入,数据中心内部设备需要通过网络互联互通,这与光模块的大量需求相对应。 随着通信和互联网应用的不断发展,个人和企业对算力和数据存储的需求逐渐向“云”迁移。 根据IDC的最新数据,全球数据规模将从103.在2022年66ZB,2027 年将达到 284 ZB3ZB,2022-2027年年化复合增长率将达到2236%,我们认为数据规模的增加需要更多的服务器和交换机,而这些设备需要信息交换和网络互联,这对应光模块的需求很大。

Statista估计,全球超大规模数据中心的数量已从2015年的259个增加到2021年的700个,而Synergy Research Group的最新数据显示,到2023年,这一数字将接近900个,占全球所有数据中心的37%。 根据 Precedence Research 的数据,全球超大规模市场规模为 8016亿美元,预计2032年增至9353亿美元,复合年增长率为279%。

叶脊网络架构大大增加了对光模块数量的需求,有助于光模块迭代升级到更高的速度。 数据中心内有两种类型的流量:1)南北向流量:数据中心外的客户端与数据中心内的服务器之间通信的流量;2)东西向流量:数据中心内不同服务器之间的通信流量。思科 2021 年的数据显示,东西向流量是数据中心流量的主要来源,占流量的 85%。

传统三层拓扑网络架构中的东西向流量必须通过汇聚层和核心层的设备,通过许多非必要节点,导致最终用户的响应时间变慢。 相比之下,脊柱-叶架构的扁平化设计可以将东西向流量分布在多条路径上,更适合在东西向流量较大的场景中使用。 此外,主干交换机和枝叶交换机之间的互连需要匹配合理的带宽比,上行链路应始终比下行链路运行得更快,以避免端口链路阻塞。

2.3.AIGC带动算力需求,“桶效应”加速高速光模块迭代升级

2022 年 11 月 30 日,OpenAI 旗下模型 ChatGPT 的发布拉开了全球军备竞赛的序幕。 2022 年 11 月 30 日,OpenAI 发布大型语言模型 ChatGPT,CEO Sam Altman 宣布 ChatGPT 用户在短短 5 天内突破 100 万,到 2023 年 1 月底,ChatGPT 用户数量突破 1 亿,成为历史上增长最快的消费者应用。 ChatGPT的崛起,导致全球众多AI公司纷纷发布自己的模型,海外谷歌推出Palm2模型,Meta发布Llama-13B,Microsoft基于ChatGPT打造新必应; 这是中国第一个发布文心一言的人。

以ChatGPT为例,模型升级迭代的背后是海量数据的训练和推理,全球对算力的需求从2012年开始迎来快速增长。 GPT-1 有 1 个模型参数和 1 个预训练数据17 亿和 5GB,到 GPT-3 已经飙升至 1750 亿和 45TB,预计未来 GTP-5 的参数数量将是 GTP-3 所需的 100 倍,计算量将是 GTP-3 的 200 400 倍。 根据OpenAI发布的《AI与计算》分析报告,自2012年以来,AI训练应用的算力需求每3-4个月翻一番,2012年以来,AI算力增长了30多万倍。

人工智能的应用和发展存在“桶效应”,算力集群需要与网络互联同步匹配,加速光模块和光芯片向高速发展。 算力的核心是AI芯片,其中GPU擅长并行和大量重复计算,在AI领域得到广泛应用。

常见的AI芯片包括通用型(GPU、DPU)、半定制型(FPGA)和全定制型(ASIC)三种类型,其中GPU商用较为成熟; 然而,使用FPGA和ASIC架构开发的AI芯片类型很多,目前仍处于开发和探索阶段。 IDC数据显示,2022年GPU是中国AI芯片市场应用最广泛的产品,占市场份额的89%,达到60亿美元。 计算服务器集群之间的数据交换需要数据中心内部的网络互联,这激发了对高速光模块的大量需求。 模型庞大的训练任务需要一个由大量GPU服务器组成的算力集群来提供算力,而这些服务器需要通过网络连接交换海量数据,这也需要更高速率的光模块来匹配。

2022年3月,英伟达推出DGX H100,对400G和800G光模块的需求有所增加。 由于组网方式不同,很难准确计算GPU和光模块使用的关系,所以我们以NVIDIA DGX H100服务器集群为例: 1)在算力网络中,每个H100对应15 个 800G 收发器和 0 个9 x 400G 收发器; 2)在存储网络中,每个单片h100对应125 x 400G 收发器。 假设只考虑上述两种网络场景对光模块的要求,则每个单个h100对应15 个 800G 收发器和 2 个需要15个400G光模块,每个H100对应约20个100G光芯片。

3.封装和材料的创新已成为光模块的未来发展方向

在算力时代,数据中心已经成为主要的能源消耗者,光模块技术的升级不仅仅是简单的速度翻倍,还需要解决高速带来的功耗和成本问题。 2021年,我国数据中心耗电量为2166亿千瓦时,约为三峡电站同期年发电量的10362乘以49亿kWh; 2022年,我国数据中心用电量将达到2700亿千瓦时,约占全社会用电量的3%。 据《中国能源报》报道,预计到2025年这一比例将接近5%。

光模块的能耗占数据中心交换网络能耗的40%-50%。 根据FibalMall数据,400G光模块在数据中心应用中的能耗为10-12W,800G的能耗为15-18W,未来为16T将消耗400G以上的2倍,预计最高可达20-24W; 同时,思科的数据显示,从2010年到2022年,光引擎的能耗增加了约26倍。 显然,光模块能耗的激增给数据中心的成本端带来了巨大的压力,解决其能耗问题成为当前光模块技术更新的关键。

3.1. lpo

LPO(Linear-Drive Pluggable Optics)采用线性驱动技术取代了传统的DSP(Digital Signal Processing)CDR(时钟数据恢复)芯片,可以降低功耗和成本,但以去掉DSP为代价,会导致系统误码率增加,通信距离缩短, 所以LPO技术只适用于短距离应用场景,如数据中心机柜到交换机的连接。

传统DSP可以解决光电电光转换后高速信号的失真问题,从而降低失真对系统误码率的影响,但功耗高,成本高:1)在400G光模块中,7nm DSP的功耗约为4W,占整个模组功耗的50%;2)在400G光模块中,DSP BOM的成本约占20%-40%。LPO技术去掉了DSP,将其相关功能集成到器件侧的开关芯片中,只留下具有高线性度的驱动器(驱动芯片)和TIA(跨阻放大器)对高速信号进行一定程度的补偿。

3.2. cpo

共封装光器件(CPO)是指网络交换芯片和光模块在同一插槽上共封装,形成芯片和模块的共封装。 与传统的热插拔技术相比,CPO技术的优势包括: 1)低时延、低功耗:由于光模块和交换芯片采用同一封装,信号传输路径更短,可以实现更低的延迟。此外,光电共封装技术可以降低信号传输的功耗,提高整个系统的能效。 2)高带宽:光电共封装技术支持高速光通信,可提供更大的数据传输带宽。3)体积小:与传统的光模块和电子芯片分离方式相比,光电共封装技术可以实现更紧凑的尺寸,有利于高密度集成电路的应用。

3.3.硅光子学技术

硅光子学技术是一种利用现有CMOS工艺开发和集成基于硅和硅基衬底材料的光学器件的新技术。 硅光子学技术的核心概念是“光代替电”,即利用激光束代替电子信号传输数据,将光学器件和电子元件集成到一个单独的微芯片中,以及芯片之间的连接速度。

与传统的分立器件解决方案相比,硅光子学技术的优势包括: 1)高集成度:它采用半导体制造工艺,将硅光子材料和器件集成在同一硅基衬底上,形成由光调制器、探测器、无源波导器件等组成的集成光子器件。 与传统的由磷化铟(INP)等活性材料制成的分立器件相比,硅光子模块不需要ROSA(光接收元件)和TOSA(光发射元件)封装,因此硅光子器件的尺寸和数量更小,集成度更高。 2)成本低:与传统分立器件相比,硅光子模块集成度更高,封装和人工成本更低;此外,硅基材料的低成本和制造大尺寸的能力意味着硅基芯片的成本可以显着降低。 3)兼容成熟的CMOS工艺:硅光子学技术可以利用半导体的成熟工艺进行超大规模、微制造和集成。

从2022年到2028年,硅基光电芯片的年化复合增长率有望达到44%。 根据Yole的数据,2022年硅基光电芯片规模约为6800万美元,预计2028年市场规模将增长到6亿美元以上,2022年至2028年的年复合增长率为44%。

4.聚焦目标

1)光模块及上游光器件:中际旭创、天福通信、信益盛;2)光芯片与硅光子学:元杰科技(与电子团队共同覆盖)、博驰科技、世嘉光子;3)交换机:中兴通讯、紫光(与计算机团队共同覆盖)、虎电(与电子团队共同覆盖);4)算力调度:润健股份、润泽科技(与机械团队共同负责)。

这是报告的节选,是报告的原始PDF

信息技术-通信产业深入研究:AI时代算力需求汹涌澎湃,高速光模块随潮而行——天丰**[唐海清、王一红]-20240224[第25页]”。

报告**:价值目录

相似文章

    AI算力需求激增,智能计算中心或将成为新的经济引擎

    欢迎来到迅达人工智能社区 迅乐达 com 学习一起分享人工智能 面对人工智能基础设施在全球智能计算中心日益增长的作用,我们正在共同努力,应对计算能力需求成倍增加以及数据和模型资源稀缺的艰巨挑战。随着人工智能的深入应用,我们看到对算力和数据模型资源的需求越来越大。在此背景下,智能计算枢纽作为区域人工智...

    大模型引爆AI算力需求,青云“下一站”。

    对于青云来说,AI时代将是一个新的机遇,年将带来比过去年更大的市场需求和机遇。青云科技总裁林远说。在这一轮AI大模型的技术进步中,支撑人工智能所需的算力自然成为关注的焦点。基于对AI算力需求的洞察,青云发布了青云AI算力服务平台 青云AI算力云等产品和服务。随着大型AI模型的发展,算力的重要性日益凸...

    算力,AI时代最确定的赛道

    人工智能热潮没有减弱的迹象。刚刚公布业绩的Meta,在业绩和指引方面均超出预期,还派发了前所未有的股息,将回购金额提高到亿美元,盘后股价 在财报发布会上,公司高管表示,Meta的总体预期是,未来几年将需要更多的投资来支持AI业务,今年的情况将得到反映。在人工智能方面,Meta 确实做到了。为了训练骆...

    光芯片的迅速崛起!AI算力国产替代关键赛道,核心领跑梳理

    光芯片如光通信目前产业链的上游核心部件是AI 云计算和G通信在网络快速发展的带动下,市场需求不断增加。根据光计数 光芯片市场规模从年的约亿美元增长到年的近亿美元,复合年增长率约为 特别是高倍率光芯片市场受益于技术的不断升级,有望实现快速增长。扩展 借助人工智能 云计算和 G通信随着网络的广泛应用,产...

    光芯片的迅速崛起! AI算力国产替代关键赛道,核心领跑梳理

    光芯片作为光通信产业链上游的核心部件,在光电信号转换和光信号产生中发挥着重要作用。光芯片半导体用于公司的制造芯片电激励源的制造工艺和方式通过电能的激发实现电光转换。光芯片主要原料包括三苯胺类化合物磷化铟 INP 和砷化镓 Gaas 以及铌酸锂 linbo 光芯片可分为主动式芯片和被动芯片两类,活跃芯...