近年来,随着全球对算力的需求逐渐向人工智能领域转移,AI服务器作为满足这一需求的关键力量,正在呈爆炸式增长。 据市场**,未来几年AI服务器出货量将保持较快增长,预计2023年将达到约118万台,同比增长率为384%。随着AI硬件市场的扩大,预计到2026年全球AI服务器的比例将增加到15%。 AI服务器预计将以29%的复合年增长率增长,显示出强劲的增长势头。
AI服务器根据应用场景分为训练和推理两大类。 目前,国内AI服务器的推理负载已达到55个左右5%,预计未来将继续增长。 对于训练场景,对芯片的算力要求更为严格,而推理场景对算力的要求相对较低。 因此,AI 服务器通常是异构的,可以配备不同类型的芯片,例如 CPU、GPU、FPGA 和 ASIC。
目前,GPU 仍然是数据中心加速的首选解决方案,尤其是在深度学习训练方面。 然而,随着人工智能产业的发展,其他非GPU芯片的应用正在逐渐增加。 据市场**,到2025年,其他非GPU芯片占比将超过20%,呈现芯片应用多元化趋势。 ASIC 通常提供出色的性能,但缺乏灵活性和可编程性。 相比之下,GPU 更适合训练或通用场景。 FPGA 具有快速、低功耗、灵活和高效的特点,为 AI 训练提供足够的计算能力,并可灵活地重新编程以满足不同的任务需求。
传统的 GPU 最初是为图形渲染计算而设计的,但随着 AI 计算需求的增长,GPGU 应运而生。 GPGPU通过去除GPU的图形显示部分,将其余的计算资源用于通用计算,广泛应用于AI、数据分析和高性能计算。 通用GPU在硬件加速能力方面具有显著优势,尤其是在深度学习训练方面,已成为主流的AI硬件产品。
在市场上,英伟达、AMD、寒武纪、华为等公司的产品占据了很大的市场份额。 凭借成熟的芯片设计、先进的制程产能优势、完整的CUDA生态,英伟达在AI芯片领域占据显著优势。 其强大且快速迭代的AI芯片已广泛应用于集群、边缘计算和高性能计算。
AI服务器的核心组件包括GPU、DRAM、SSD、RAID卡、CPU、网卡、PCB、高速互连芯片、散热模块等。 随着对GPU算力需求的增加,对硬件的传输速率也提出了更高的要求。 这推动了对高频和高速板、HDI 和 ABF 载板的需求增长。 同时,为了满足更高的传输效率,还需要低损耗的覆铜板,这对PCB及其上游材料**端有促进作用。
此外,随着AI服务器出货量的持续增长,对HBM(高带宽内存)的需求也呈爆炸式增长。 HBM 因其高带宽、低功耗、体积小等优点,被广泛应用于 AI 服务器场景。 HBM 主要应用于高性能服务器领域,其应用进度从 2016 年的 NVP100GPU(采用 HBM2 技术)开始,随后应用于 V100、A100 和 H100 产品。 NVIDIA 的 H200 采用了最新一代的 HBM3E 技术,可为服务器提供更快的数据处理速度和更高的内存容量。
市场对AI服务器的需求持续旺盛,随着AI技术的发展和未来应用场景的扩展,对其性能、稳定性、可扩展性提出了更高的要求。 受美国等国对华科技限制加大影响,中国AI硬件需求缺口或将进一步扩大,为国产AI服务器发展提供广阔的市场空间和机遇。 人工智能产业链基础层、技术层、应用层相互配合,共同推动人工智能技术在各个领域的应用与发展。