服务器市场在变化:英特尔和AMD展开激烈争夺,国产芯片不断涌现。
AI服务器:高速发展机遇与产业链分析。
随着AIGC的崛起,AI服务器市场将迎来快速发展机遇。
对用于训练和推理的服务器的需求激增推动了人工智能服务器市场的增长。
AI服务器产业链主要包括芯片、服务器、软件、服务四个环节。
AI服务器竞争格局:英伟达、AMD、英特尔等厂商占据主导地位。 AIGC带来服务器转型,训练推理带来服务器需求增量,AI服务器市场迎来高速发展机遇,AI服务器产业链分析,AI服务器竞争格局。
服务器硬件成本构成:
处理器和芯片组:约 50%。
内存:约 15%。
外部存储:约 10%。
其他硬件(IO 卡、硬盘驱动器、机箱等):约 25%。
主要硬件包括处理器、内存、芯片组、IO(RAID卡、网卡、HBA卡)、硬盘、机箱(电源、风扇)。 以一台普通服务器的生产成本为例,CPU和芯片组约占50%,内存约占15%,外部存储约占10%,其他硬件约占25%。
服务器的逻辑架构与普通计算机类似,但为了满足高性能计算的需求,在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面都有更高的要求。 因此,许多服务器制造商正在投入大量资源开发和生产服务器,以创建满足各种需求的服务器,以应对当今快速发展的数字世界。
1.全球服务器市场持续增长,2022 年出货量和收入分别同比增长 6% 和 17%,达到 1380 万美元和 1117 亿美元,预计未来几年将保持稳健增长。
2.中国服务器市场规模始终保持较快增长,年复合增长率为145%,预计2023年市场规模将增至308亿美元。
3.中国服务器市场具有巨大的增长潜力,得益于国家对新基建的持续投资,以及数字化转型和云计算的快速发展,对服务器的需求正在增长。
4.随着国内外服务器厂商的激烈竞争和行业格局的不断变化,国产服务器品牌凭借其高性价比的优势不断扩大市场份额,有望成为未来服务器市场增长的主力军。
根据 Counterpoint 的全球服务器销售跟踪器,2022 年,全球服务器出货量将同比增长 6%,达到 1380 万台。 收入将同比增长17%,达到1117亿美元。 根据IDC和中国商业产业研究院的数据,中国服务器市场规模将从2019年的182亿美元增加到2022年的27.3美元4亿美元,复合年增长率为145%,预计2023年中国服务器市场规模将增至308亿美元。
潮水霸道,新华紧随其后,超级聚变突围,中兴通讯强势崛起。
浪潮在国内服务器市场牢牢占据领先地位。 新华社继续稳步发展。 超级多元变种人大军已经升至榜首,排名第三。 中兴通讯强势崛起,进入前五名,展现出强大的竞争力。 IDC发布的《2022年第四季度中国服务器市场初步跟踪报告》显示,浪潮在中国领先,新华排名第三,Super Fusion排名第三,中兴通讯进入前五名。
AIGC产业生态三层架构:
1.上游 Base Layer:
AIGC技术基础设施层是基于预训练模型构建的。
2.中间层:
垂直化、场景化、个性化的模型和应用工具。
3.应用层:
内容生成服务,例如面向 C 端用户的文本和音频。 AIGC产业生态的原型已经浮出水面,呈现为上、中、下层架构:第一层是上游基础层,即基于预训练模型构建的AIGC技术基础设施层。 第二层是中间层,即垂直的、场景化的、个性化的模型和应用工具。 第三层是应用层,即面向C端用户的内容生成服务,如文本、音频等。
GPT的历史。
GPT 系列和 BERT 模型都是众所周知的 NLP 模型,它们都基于 Transformer 技术。 GPT 是一种生成式预训练模型,由 OpenAI 团队于 2018 年首次发布。
GPT-1 只有 12 个 Transformer 层,而 GPT-3 将层数增加到 96 层。 GPT模型的演进主要包括:
数据量和参数量增加几个数量级:GPT-3 的数据量和参数量比 GPT-2 多几个数量级。
训练方法的转变:GPT-1 使用无监督预训练和监督微调相结合,而 GPT-2 和 GPT-3 使用纯无监督预训练。 GPT的发展,GPT家族和BERT模型都是众所周知的NLP模型,都是基于Transformer技术的。 GPT 是一种生成式预训练模型,由 OpenAI 团队于 2018 年首次发布,GPT-1 只有 12 个 Transformer 层,到 GPT-3 时,它已经增加到 96 层。 其中,GPT-1采用无监督预训练和监督微调相结合的方式,而GPT-2和GPT-3则是纯无监督预训练,GPT-3与GPT-2相比的进化主要是数据量和参数量增加一个数量级。
异构计算可能成为未来的主流。
异构计算是一种将不同指令集和架构的计算单元组合成一个系统的计算方法,包括GPU云服务器、FPGA云服务器和弹性加速计算实例(EAIS)。 核心思想是让最合适的专用硬件服务于最合适的业务场景,最大化资源利用率,加速计算性能提升。
异构计算的优势:
1.性能改进:通过将计算任务分配给最合适的硬件,可以显著提高计算性能。
2.能效优化:通过选择合适的硬件,您可以降低功耗并提高能效。
3.可扩展性增强:异构计算允许使用不同类型的硬件,从而实现计算系统的灵活扩展。
4.成本优化:异构计算可以根据业务需求选择最具性价比的硬件,降低成本。
如果选择异构计算,可以享受专业硬件的优势,如性能提升、能效提升、成本优化等,加速业务创新发展。 异构计算是指利用不同类型指令集和架构的计算单元组成一个系统的计算方法,主要包括GPU云服务器、FPGA云服务器、弹性加速计算实例EAIS。
让最合适的专用硬件服务于最合适的业务场景。
在CPU+GPU异构计算架构中,CPU和GPU协同工作,充分发挥各自的优势。 CPU负责逻辑复杂的串行程序,而GPU则专注于数据密集型并行计算程序,从而有效提高计算效率。
CPU和GPU通过PCLE总线连接,CPU负责协调任务分配,GPU负责并行处理数据,结合CPU和GPU的优势,大大提高了计算性能。 在CPU+GPU的异构计算架构中,GPU和CPU通过PCLE总线连接协同工作,CPU的位置称为主机,GPU的位置称为设备。 基于CPU+GPU的异构计算平台可以相辅相成,CPU负责处理逻辑复杂的串行程序,而GPU则专注于数据密集型并行计算程序,以最大限度地提高效率。
越来越多的 AI 计算使用异构计算来加速性能。
2017 年,阿里巴巴发布了第一代计算 GPU 实例 GN4。 搭载NVIDIA M40加速器,通过10G网络为AI深度学习场景提供服务。 与同时代产品相比,GN4 的性能提高了近 7 倍,使其成为业界领先的 GPU 实例之一。 GPU 实例于 2017 年发布,带有 GN4 加速器和 NVIDIA M40 加速器。 在10G网络中,AI深度学习场景的性能比同时代的CPU服务器高出近7倍。
CPU:强大的执行引擎。
CPU 适用于各种工作负载,尤其是那些需要高延迟和每核性能的工作负载。 作为一个强大的执行引擎,CPU将其相对较少的内核集中在单个任务上,并快速完成它,特别是对于串行计算和数据库运行等类型的工作。
CPU的优点:
低延迟。 每个内核的高性能。
非常适合处理单个任务。
CPU应用场景:
串行计算。 数据库运行。
其他具有高延迟和每核性能的工作负载适用于各种工作负载,尤其是那些具有高延迟和每核性能的工作负载。 作为一个强大的执行引擎,CPU将其相对较少的核心集中在单个任务上,并快速完成它。 这使得它特别适合处理从串行计算到数据库运行的工作类型。
GPU 从图形处理开始,最初用于 3D 渲染。 随着演进,GPU的功能也逐渐从固定变为灵活可编程。 虽然图形仍然是 GPU 的主战场,但它已成为可以处理更多应用程序的并行处理器。 GPU的强大之处在于其并行计算能力——在处理**或其他数据时,GPU可以将其分解成多个小块,由处理器内核同时处理,大大加快了数据处理速度。 它最初是作为 ASIC 开发的,专门用于加速特定的 3D 渲染任务。 随着时间的流逝,这些固定功能的引擎变得更加可编程和灵活。 虽然图形和当今视觉上越来越逼真的顶级游戏仍然是 GPU 的主要功能,但它们也已经发展成为能够处理越来越多的应用程序的更通用的并行处理器。
AI 服务器作为计算能力基础设施继续增长。
AI服务器市场潜力巨大。
受益于AI时代对算力需求的增加,预计对AI服务器的需求将快速增长。
2022年,搭载GPGPU的AI服务器年出货量占服务器总量的近1%。
ChatGPT相关应用有望推动AI相关领域的发展,AI服务器出货量年增长率可达8%。
2022 2026年AI服务器复合增长率将达到108%。
作为算力基础设备,对服务器的需求有望受益于AI时代对算力需求的增加,并快速增长。 据TrendForce集邦咨询数据显示,截至2022年,搭载GPGPU(通用GPU)的AI服务器年出货量将占服务器总量的近1%,预计在聊天机器人相关应用的支持下,有望再次推动AI相关领域的发展,预计年增长率为8%。 2022年 2026年复合增长率将达到108%。
AI服务器市场正在迅速增长。
IDC**,2021年中国AI服务器市场规模将达到57亿美元,同比增长616%。预计到 2025 年,市场规模将增长到 109 亿美元,复合年增长率为 175%。
AI服务器的异构组合,满足不同应用的需求。
AI 服务器具有异构架构,可以以不同的方式组合。 如CPU+GPU、CPU+TPU、CPU+其他加速卡等,满足不同应用的需求。
AI 服务器推动数字化转型。
AI服务器正在推动各行各业的数字化转型。 医疗、金融、制造、交通、零售等行业都看到了AI的潜力和价值,纷纷开始部署AI服务器,以提高效率和服务水平。 服务器是异构服务器,可以根据应用范围进行不同方式的组合,如CPU+GPU、CPU+TPU、CPU+其他加速卡等。 IDC预计,2021年中国AI服务器市场规模为57亿美元,同比增长616%,到 2025 年市场规模将增长到 109 亿美元,复合年增长率为 175%。
AI服务器的组成和形式。
浪潮NF5688M6 AI服务器:算力澎湃,智能引领未来。
浪潮NF5688M6 AI服务器,搭载8个NVIDIA Ampere架构GPU,通过NVSockey实现GPU跨节点P2P高速通信互联,算力澎湃,轻松应对各种AI训练和推理任务。
配备 2 个第三代英特尔至强可扩展处理器 (ICE Lake),支持 8 个 2 个板载 5 英寸 NVMe SSD 或 SATA SAS SSD 和 2 个 SATA M2.可以满足不同的存储需求。 可选的 PCIe 40 x16 ocp 3.0网卡,速率支持10G、25G、100G,网络连接灵活可靠。
浪潮NF5688M6 AI服务器是您构建AI系统,助您在AI领域取得成功的理想选择。
优势一览:8 个 NVIDIA Ampere GPU,算力澎湃,轻松应对各种 AI 训练和推理任务。
NVSower实现GPU跨节点P2P高速通信互联,数据传输高效无损。
2 个第三代英特尔至强可扩展处理器 (Ice Lake) 提供强大的性能和可靠性。
支持 8 块 2板载 5 英寸 NVMe SSD 或 SATA SAS SSD 和 2 个 SATA M2.存储容量灵活,可扩展。
可选的 PCIe 40 x16 ocp 3.0网卡,速率支持10G、25G、100G,网络连接灵活可靠。 服务器主要组件:以浪潮NF5688M6服务器为例,利用NVSoper实现GPU跨节点P2P高速通信互联。 整机拥有8个NVIDIA Ampere架构GPU,通过NVSower实现GPU跨节点和P2P的高速通信和互联互通。 配备 2 个第三代英特尔至强可扩展处理器 (ICE Lake),支持 8 个 2 个5 英寸 NVMe SSD 或 SATA SAS SSD 和 2 个 SATA M2. 1 个 PCIe 40 x16 ocp 3.0网卡,速率支持10G、25G、100G;
10 个 PCIe 40x16 插槽,2 个 PCIe 40x16插槽可以减慢到 PCIe 40x8。
1 过流 30 个插槽。
支持 32 DDR4 RDIMM LRDIMM 内存,速度高达 3200mt s。
6 个 3000W 80Plus 白金级电源、N+1 冗余热插拔风扇和机箱。 10 个 PCIe 40x16 插槽,2 个 PCIe 40 x16 插槽 (PCIe 4.)0 x8 速率)、1 ocp30 个插槽。 它支持32 DDR4RDIMM LRDIMM内存,最高速率为3200MTS,物理结构还包括6个3000W 80PLUS铂金电源,N+1冗余热插拔风扇,机箱等。
驰骋在AI世界,计算引擎可以按需解锁。
4 GPU(浪潮NF5448A6):主流 AI 服务器,满足基础 AI 训练需求。
8 GPU(NVIDIA A100 640GB):性能大幅提升,适合大中型 AI 训练任务。
16 个 GPU (NVIDIA DGX-2):用于复杂 AI 模型训练和科学研究的顶级 AI 服务器。 GPU 的数量从 4 个 GPU(浪潮NF5448A GPU (NVIDIA A100 640GB) 到 16 个 GPU (NVIDIA DGX-2) 不等。
核心组件: GPU(图形处理单元):负责复杂的数学和图形计算。
DRAM(动态随机存取存储器):提供高速数据访问。
SSD(固态硬盘):提供快速存储。
RAID 卡:管理多个硬盘驱动器以提高存储性能和可靠性。
其他组件: CPU(**处理器):协调系统并执行任务。
网络适配器:连接到服务器和网络。
PCB:连接所有组件并提供电源。
高速互连芯片(板载):实现组件之间的快速通信。
散热器模块:保持系统冷却并防止过热。 服务器的核心组件包括GPU(图形处理单元)、DRAM(动态随机存取存储器)、SSD(固态硬盘)和RAID卡、CPU(**处理器)、网卡、PCB、高速互连芯片(板载)和散热模块。
CPU 和 GPU 领域的主要供应商:
CPU:主要由 Intel** 提供
GPU:国际巨头英伟达(Nvidia)处于领先地位,国内厂商寒武纪(Cambrian)和海光信息(Haiguang Information)也在发展。 主要供应商有英特尔、GPU,领先的厂商是国际巨头英伟达,以及寒武纪、海光资讯等国内厂商。
AI服务器竞争格局。
IDC发布《2022年第四季度中国服务器市场跟踪报告》初讯,超融合成为最大赢家,份额为32%飙升至101%。
浪潮仍位居第一,占有28份额1%,但下降幅度很大。 新华社III紧随其后,占有17份额2%,也略有下降。
戴尔和联想排名第一。
第三、第四,但份额有所下降,分别为158% 和 123%。
中兴通讯如雨后春笋般涌现,占有31% 至 53%,从第九位跃升至第五位。
Super Fusion和中兴通讯的出色表现打破了市场格局,为竞争注入了新的活力。 《2022年第四季度中国服务器市场跟踪报告》发布。 从报告中可以看出,前两波与新华三号相比变化较小,第三波是超级聚变,从32%的份额跃升至101%,增幅远远超过其他服务器厂商。 在前8大服务器厂商中,浪潮、戴尔、联想均出现大幅下滑,而Super Fusion和中兴通讯则实现了显著增长。 其中,浪潮的份额来自308% 降至 281%;新华社III股从175%降至172%;中兴通讯从31% 至 53%,居全国第5位。
联想的跌幅最大,从75% 降至 49%。
AI服务器采购格局:北美巨头称霸,国内浪潮兴起。
关键数据:2022年,北美四大云运营商(谷歌、AWS、Meta、Microsoft)合计占AI服务器采购量的66%2%。
国内AI建设浪潮加速,字节跳动采购占比已达62%,国内领先的制造商。
腾讯、阿里巴巴和百度紧随其后,采购比例约为。 5% 和 15%。
洞察:北美云巨头因其庞大的数据中心和计算需求而主导着 AI 服务器采购。
国内厂商正在加速追赶,以字节跳动为代表的互联网巨头正在积极布局AI领域,带动国内AI服务器市场的增长。
趋势:随着AI技术的发展及其应用的不断扩大,AI服务器市场将继续快速增长。
国内企业有望凭借其成本优势和对当地市场的深入了解进一步扩大其市场份额。 TrendForce集邦咨询数据显示,2022年北美四大云公司谷歌、AWS、Meta、Microsoft,占AI服务器采购量的66%2%是最多的,而近年来,随着国内国产化程度的加大,AI建设的浪潮越来越多,字节跳动的采购力最为显著,占比62%,其次是腾讯、阿里巴巴和百度。 5% 对 15%。
国内AI服务器市场的竞争格局。
浪潮信息,新华社。
3、Super Fusion、中兴通讯等竞争对手领跑国内AI服务器市场。
GPGPU研究框架和算力分析(2023)。
核心壁垒:高精度浮点计算和CUDA生态。
国产GPU产品与国外产品仍存在差距,主要体现在高精度浮点计算能力和软件生态上。
计算性能:国产GPU有待突破。
碧辰BR100:FP32单精度超越NVIDIA A100,但不支持FP64双精度计算。
天智信天元100:FP32单精度超过A100,但int8整数计算性能低于A100。
海光DCU:支持FP64双精度浮点计算,性能约为A100的60%。
整体来看,国产GPU在计算性能上仍落后国外产品一代以上。
软件生态:CUDA称霸全球。
英伟达凭借CUDA生态屏障占据了全球GPU市场90%的份额。国内大多数企业都使用开源OpenCL进行自主生态建设,但布局需要花费大量时间。 AMD于2013年开始构建GPU生态,ROCM开放软件平台花了近10年时间才逐渐变得有影响力,并且仍然兼容CUDA。
突破国产GPU之道:自主创新与生态建设。
虽然国产GPU与国际厂商仍有差距,但国产厂商正在迎头赶上。
挑战与机遇:禁令下的本地化过程。
美国禁止在中国销售高端GPU,为国内GPGPU和AI芯片厂商带来了快速发展的机遇。
短期影响:工业进步受到阻碍。
该禁令可能会影响英伟达和AMD的GPU产品在中国的销售,阻碍中国人工智能计算、超级计算和云计算行业的进步。
长期机会:本地化需求激增。
庞大的国内市场和信息创新市场带来了国产化需求的增加,预计国产AI芯片国产化占比将大幅提升。
国内厂商建议:自主创新,生态建设。
着力实现自主创新,构建自主生态圈。 国内企业应:
持续提升计算性能,缩小与国际厂商的差距。
加快软件生态建设,构建完整的自主生态。
与国内外合作伙伴合作,共同构建GPGPU本地化生态。
GPGPU的核心壁垒是高精度浮点计算和CUDA生态系统。 从高精度浮点计算能力来看,国产GPU产品与国外产品的计算性能可能还有一代以上的差距; 在软件和生态层面,与英伟达的CUDA生态差距更加明显。
在AI计算GPU领域,碧辰科技在国内发布的BR100产品在FP32单精度计算性能上超越了NVIDIA A100芯片,但不支持FP64双精度计算; 天天智信推出的天元100的FP32单精度计算性能超越了A100芯片,但在整数计算性能上低于A100; 海光推出的DCU实现了FP64双精度浮点计算,但性能只有A100的60%左右,与四年前的水平差不多。 因此,从高精度浮点计算能力来看,国产GPU产品与国外产品在计算性能上可能还存在一代以上的差距。
然而,GPU不仅需要在硬件上提升算力,而且软件层面对于GPU应用和生态布局尤为重要,NVIDIA凭借CUDA筑起生态屏障,占据了全球90%的GPU市场。 目前国内大部分企业都使用开源OpenCL进行自主生态建设,但这需要大量的时间进行布局;
相较于AMD在2013年构建的GPU生态,通用计算的ROCM开放软件平台花了将近10年的时间才逐渐变得有影响力,并且仍然兼容CUDA。 因此,我们认为,国内厂商与英伟达的CUDA生态在软件和生态层面的差距,比计算性能更为明显。
尽管国内产品与国际厂商的计算性能和软件生态实力仍有差距,但国内厂商仍在迎头赶上,力争在GPGPU国产化上实现突破。
从长远来看,美国禁止向中国销售高端GPU给国内GPGPU和AI芯片厂商带来了快速发展的机遇。 短期来看,我们认为,高端通用计算GPU的禁令可能会影响NVIDIA和AMD GPU产品在中国的销售,阻碍中国AI计算、超级计算和云计算产业的进步。 可以用中高计算性能的CPU、GPU、ASIC芯片等代替,这些芯片没有被NVIDIA和AMD以及国内厂商禁止。
从长远来看,国内CPU、GPU、AI芯片厂商受益于庞大的国内市场,叠加国内信息化和创新市场带来的国产化需求增加,我们预计国产AI芯片的国产化比例将大幅提升,借此机会升级产品,逐步达到国际先进水平, **对于国内厂商,建议重点实现自主创新,打造自主生态圈,与国内企业:国内芯片龙头企业崛起:
龙芯中科:国内领先的PC CPU,率先推出自主研发的GPGPU产品,助力提升国产图形处理能力。
海光资讯:国内领先的服务器CPU,成功推出深度计算(DCU)芯片,助力提升数据中心的人工智能计算能力。
精家卫:国内图形渲染领域的领先GPU,在游戏和图像处理领域取得了突破,增强了国产芯片在图形处理领域的竞争力。
寒武纪:国内领先的ASIC芯片公司,专注于人工智能芯片的研发,打造高效低功耗的AI芯片产品。
澜起科技:国内领先的服务器内存接口芯片,提供高性能、低功耗的内存解决方案,提升国产芯片在数据中心领域的应用。 芯片:龙芯中科(国内PC CPU领军,自主研发GPGPU产品)、海光信息(国内服务器CPU领军,推出深度计算处理器DCU)、京家威(国内图形渲染GPU领军企业)、寒武纪(国内ASIC芯片领军企业)、澜起科技(国产服务器内存接口芯片领军企业); 2)PCB:盛宏科技、兴森科技、沪电股份有限公司;3)先进封装:同福微电子、永思电子、长电科技、长川科技等。 半导体巨头重新崛起:
英伟达:全球GPU霸主,引领人工智能和自动驾驶革命。
AMD:CPU 和 GPU 都凶猛进取,挑战行业格局。
英特尔:CPU 霸主地位稳固,正在改变 AI 和数据中心。
美光:存储芯片巨头,引领存储器和闪存技术的创新。 NVIDIA(世界领先的GPU)、AMD(世界领先的CPU GPU)、Intel(世界领先的CPU)、美光(世界领先的内存芯片)。 GPU:塑造数字世界的构建块。
GPU 概述。
GPU(图形处理单元)是计算机中的一种电子电路,专门用于处理图像和**。 凭借其强大的并行计算能力,GPU 在计算机图形学、深度学习、科学计算等方面发挥着至关重要的作用。
全球GPU市场格局。
全球GPU市场呈现出“一超一强”的竞争格局。 凭借雄厚的技术实力和市场影响力,英伟达在GPU市场长期占据主导地位。 AMD近年来崭露头角,凭借其高性价比的优势逐渐蚕食NVIDIA的市场份额。
英伟达在GPU领域的领先地位是稳固的。
英伟达在GPU市场的地位非常稳固。 其GPU产品以其卓越的性能和可靠性而受到消费者和企业用户的青睐。 英伟达在人工智能和自动驾驶等新兴领域也保持着领先地位。
国内GPU厂商正在逐步迎头赶上。
国内GPU厂商近年来发展迅速,涌现出一批有竞争力的企业,如精家卫、寒武纪、木熙等。 这些企业在GPU芯片设计、算法优化等方面取得了长足的进步,并推出了具有自主知识产权的GPU产品。
GPU技术前景光明。
GPU技术正处于快速发展阶段,其应用领域也在不断扩大。 未来,GPU将继续在计算机图形学、深度学习、科学计算等领域发挥重要作用,并有望在自动驾驶、智能机器人等新兴领域取得突破。
您对此有何看法? -
欢迎留言**并在评论区分享。 -