(报告制作人:国海**、陈梦柱、尹瑞、卢瑞琪)
作为终端,AI PC手机可以解决数据安全、时延等问题,与云端相比
AI PC手机作为端端大模型解决方案,可以帮助解决数据安全、隐私泄露等问题。 对于个人用户,可以通过访问本地数据来形成数字孪生,大模型成为用户的个性化助手对于企业用户,可以通过公司内网访问企业数据库,实现智能协同办公。 这意味着,为了获得行业模型,企业必须将关键资产——数据上传到云端,而一旦训练好的模型被整个行业共享,就意味着在一定程度上消除了企业的竞争壁垒,从而产生了企业在数据墙中训练特殊模型的需求, AI PC手机应运而生。在大多数应用场景中,用户对推理的时效性要求很高,在云端进行推理后再将结果传回终端和边缘,不可避免地会因为物理距离而出现延迟。
作为一种去中心化的服务模式,AI PC手机可以帮助云端分担算力成本
在设备侧和边缘部署大型模型,可能会带来市场对公有云、私有云和本地数据中心的需求,以及云、设备和边缘的算力平衡。 过去,市场对算力的关注多集中在云服务商和大模型训练阶段,但云算力相对有限,难以满足高峰期所有用户的推理需求。 通过智能终端(如AI PC、手机)和边缘设备分担云的算力成本,可以平衡云、设备和边缘对算力的需求。
基于渗透率的 AI PC 出货量和增量收入空间的衡量
根据我们对基于渗透率的 AI PC 出货量的分析,Canalys 预计 PC 出货量将达到 267亿台,我们参考这个数据来假设PC出货量的场景,即24/2.6/2.8/3.00亿单位;同样,在七种不同场景下,假设 AI PC 渗透率为 5%、10%、20%、30%、40%、50% 和 60%。 根据测算,AI PC出货量范围为012~1.80 亿台。 假设AI PC涨价水平,AI PC涨价1000元和1500元两种不同情景下的增量市场空间分别为120180亿元和180270亿元。
GPU 历史:它诞生于专业化需求,作为辅助处理器执行并行计算任务
随着工艺的发展,GPU 在个人 PC 和移动设备上越来越受欢迎,即使性能呈指数级增长,独立显卡的势头也逐渐增强。
NPU:诞生于神经网络计算的需求,与GPU相比,兼顾了特异性和能耗
NPU(神经网络处理单元)可以在电路层模拟人体神经元和突触,利用深度学习指令集直接处理大规模神经元和突触,用一条指令完成一组神经元的处理。 相较于CPU和GPU的冯·诺依曼结构,NPU通过突触加权将存储和计算融为一体,从而提高了运行效率。 NPU是ASIC芯片的一种,目前主要应用于深度学习、机器学习等人工智能任务。
骁龙8 Gen3加速大模型在手机上的运行,骁龙X Elite助力高通进入AI PC赛道
高通在2024年骁龙技术峰会上发布了面向AI手机的骁龙8 Gen3和面向AI PC的骁龙X Elite,率先成为同时抢占生成式AI应用两大端侧赛道的芯片厂商。 就手机端而言,搭载骁龙8 Gen3的手机运行稳定的Diffusion机型,只有06秒本地生成一张图片,与骁龙8 Gen2的15秒相比,大大优化了移动设备上生成式AI的推理速度在PC端,高通率先推出了骁龙X Elite平台,不仅拓展了生成式AI应用的广度,也是高通进军PC市场的重要一步。
搭载NPU的PC已经成为AI PC时代开启的重要标志,Windows系统的迭代或将带来一波换代潮
NPU作为AI相关任务的特殊引擎,已经成为PC的核心部件之一,开启了AIGC在设备端落地的可能性,是AI时代PC产品的重要创新。 NPU 的能耗比比 GPU 更好,这意味着随着 NPU 在 PC 上的普及,与 GPU 的分工可能会变得更加清晰。 GPU最初被用作图像处理的专用芯片,也常用于深度学习相关领域,矩阵乘法的并行计算能力使GPU成为NPU之前AI模型训练和推理所依赖的重要硬件单元。 随着 Transformer 成为 LLM 的主流架构,并统一了 CV 和 NLP 两个研究分支,神经网络已成为构建 AI 模型的基本单元,而 NPU 作为张量处理器可以在更短的时间内完成大规模神经网络计算任务,因此它是比 GPU 更适合 AI 相关任务的加速引擎。 NPU作为设备端的重要基础设施之一,将为PC承载大模型提供前提条件,其普及标志着AI PC时代的到来。
为了支持设备侧高规格大模型的运行,可以对AI PC的散热模块进行重构
散热能力是高算力芯片的一大瓶颈,随着搭载在AI PC和AI手机上的型号规格的不断完善,NPU性能释放可能会变得更加激进。 从数据中心的角度来看,功耗和散热是关键痛点,如何在芯片有限的体积内准确计算并平滑放出高集成度、高能量密度产生的热值和热效应,成为多源异构芯片3D封装中最具挑战性的问题。 目前,在消费电子终端和手机方面,不锈钢VC均热板已逐渐取代铜VC均热板成为散热的主力军PC的散热方案一般以组合的形式呈现,散热模块从结构上主要包括散热底座、热管、散热片、散热风扇等物体。
大模型在端侧实现,或让AI PC手机厂商成为这种服务模式下的流量入口
终端侧大模型落地的主要受益者包括硬件(主要是NPU)设计厂商、大模型厂商、终端设备(AI PC手机)厂商,其中终端设备厂商作为C端用户的唯一直接角色,可能成为这一服务模式的流量入口。
联想集团:率先推出首款AI PC概念机,预计2024年下半年上市
2024年10月,联想集团在预计将于2024年下半年推出的第九届联想创新技术大会上展示了其人工智能个人电脑(AI PC)产品。 据联想官网介绍,其AI PC能够创建个性化的本地知识库,并通过模型压缩技术运行单个大模型,实现用户与人工智能的自然交互。
联想集团:推出AI手机和AI双胞胎,为个人和企业用户赋能的功能性产品
就个人用户而言,AI Twin被定义为用户在数字世界的延伸,本质上是个人基于本地知识库生成的专有大模型,可以理解用户的思维方式并最大程度给出解决方案。 由于AI孪生只会存储在本地化的设备或家庭服务器上,个人数据不会共享或上传到公有云平台,因此可以有效保护用户的个人隐私和数据安全企业级AI孪生覆盖了一系列企业级AI应用,可以连接企业内部的各种智能设备、边缘和私有云,链接各种企业级软件,对各类信息进行综合分析,并给出最优建议。 例如,企业级 AI 孪生可以考虑公司的差旅政策、审批流程以及员工的个人信息和偏好,为用户指定合理的计划。
小米:计划将轻量级本地大模型接入终端,与WPS AI达成深度合作
2024年4月,小米成立了AI大模型团队,在手机上对模型进行了13亿参数测试,同时,小米语音助手“小爱”开始了大模型版本的内测,成为小米大模型的首个应用。 2023 年 8 月,小米最新的 13 亿参数模型已成功通过手机运行,部分场景可以与云端运行的 60 亿参数模型的结果相媲美此外,小艾的月活跃度已经超过了11亿,并升级AI大模型能力,开放邀请测试。 2023 年 10 月,WPS AI 在小米 14 系列手机新品发布会上亮相,小米 14 系列手机用户可通过小米社区使用具有 WPS AI 功能的 WPS 专属版**。 在小米 14 系列手机上,WPSAI 支持输入主题一键生成 PPT 演示文稿,并可提供进一步细化和调整的功能。 2023 年 10 月,小米 14 系列首次亮相骁龙 8 Gen3。
人性化:引入新的可穿戴 AI PIN,旨在与大型语言模型交互
2023 年 11 月 9 日,Humane 正式推出 AI PIN,这是一款由 OpenAI 提供支持的可穿戴设备,旨在与大型语言模型进行交互。 该设备允许用户拨打电话**、发送短信和通过说话搜索信息,还拥有激光显示屏,可直接变成手掌中的迷你屏幕,起价为 699 美元。
本文仅供参考,不代表我们的任何投资建议。 如需使用这些信息,请参阅原始报告。 )
专题报告**:未来的智库]。