文:吴占国,编辑:何岳阳,制片人:数智圈。
今年以来,大模特之风在中国掀起了一波又一波。
无论是在乌镇召开的互联网大会,还是各大互联网论坛,大模都屡屡被大佬们赞不绝口,如今百模大战的硝烟还没停,最终也会像“百团大战,百云大战”一样,胜者通吃,还是未知数。
至少就目前而言,它们中的大多数都属于研发阶段,能够实现盈利和变现的只有少数。 然而,云厂商的大模型训练之争已经开始,各大云厂商纷纷发布了自己的大模型服务计划。
截至目前,国内外云厂商,包括阿里云、华为云、腾讯云、京东云、Microsoft云Azure等云计算厂商,均已推出MaaS服务。
MaaS 服务的推出对云厂商有何影响?云供应商如何利用 MaaS 变现?MaaS能否成为云厂商新的业务增长极?本文将回答这些问题。
MaaS是一种模式即服务,是IaaS(基础设施即服务)、PaaS(平台即服务)、SaaS(软件即服务)之外的新概念,也是云厂商的新业务。
美国国家标准与技术研究院(NIST)制定了IaaS、PaaS和SaaS的技术标准,目前没有提供MaaS的技术标准,全球也没有其他权威认证。
根据云厂商的描述,MaaS模型的核心价值可以归纳为:降低算法需求侧的开发技术和使用成本门槛,用户可以通过API直接调用基础大模型,针对不同的业务场景进行构建、训练和部署专属模型。
主流云厂商关注MaaS服务有两个原因:主动和被动。
一是主流云厂商传统业务增速放缓。
一般来说,云厂商的传统业务大多基于IaaS层,而PaaS和SaaS层的业务规模相对较小。 IaaS层提供服务的突出特点是资产重、投入大、依赖规模大,但同质化严重,利润率低。
再加上运营商的加入,竞争更加激烈,首战频频上演。
另一方面,阿里云、腾讯云等云厂商纷纷调整过往规模化路线,积极放弃一些微利项目,以保持利润空间。 正如互联网云厂商所预期的那样,近两年云厂商的利润率有所提高,但增速却跌破了10%。 例如,排名第一的阿里云,2024年的增速将接近于零,与前两年20%-100%的增速相比,增速大幅下降。
在利润率较高的PaaS和SaaS层,由于基础开发软件和SaaS业务需求不足,这两层在国内的业务量较低,占整个公有云市场的比重远低于国外。
其次,大模型训练和操作的算力和服务存在差距。
截至10月,我国大模型参数在10亿以上的厂商和高校有254家,国内已发布238款大型模型,而6月份为79家,4个月内增长了3倍。
如此多的大型模型的训练和操作,需要巨大的算力。 比如OpenAI训练一个大模型,前期训练GPT-3需要一次性购买49台服务器,成本140万美元,日常运营成本更高,前期每天访问量2500万次,需要购买3798台服务器,成本为7台59亿美元。
华为**,2024年通用计算总量较2024年增长10倍,达到3倍3zflops;AI 计算总量将增长 500 倍,达到 105 ZFLOPS。
基于这一期望,云供应商推出了自己的MaaS服务。
今年3月,李彦宏在文心一言发布会上提出,MaaS将在大模型时代取代IaaS,成为主流。 今年4月,阿里巴巴发布了通益千问模式,在阿里云峰会上,张勇表示,阿里云已经形成了模型即服务(MaaS)、平台即服务(PaaS)和基础设施即服务(IaaS)三层架构。 从这句话中也可以看出,阿里云对MaaS的重视程度。
今年7月初,华为云发布了盘古Model 30 和昇腾 AI 云计算服务,盘古 30 可提供 100 亿到 1000 亿参数的四大系列基础大模型,昇腾 AI 云可在单个集群中提供 2000p FLOPS 等计算服务。
9月初,腾讯发布了自主研发的混合模式,国内企业可以通过腾讯公有云平台接入混合元素,并根据具体需求进行微调。
目前,关于MaaS的定义存在不同意见,包括MaaS与IaaS、PaaS、SaaS的关系,以及未来MaaS是否会重新定义IaaS、PaaS和SaaS。
目前,云厂商已经推出了MaaS相关服务,主要包括基于IaaS的AI计算服务,以及通过自研大模型或开源大模型提供的API调用服务。
首先,API 调用服务是 MaaS 的核心变现方式。
API调用服务是云计算平台将机器学习习模型封装成可调用的云服务,用户可以通过API接口或其他方式调用模型的能力。
在此过程中,云供应商可以根据使用情况或时间收费。
例如,OpenAI 推出了 GPTS 和相应的自然语言开发工具。 OpenAI 共制定了四种收费模式,分别是 ChatGPT Plus 订阅费、API(除 GPT 模型接口外,还包括模型微调接口和嵌入式接口)调用量收费、文盛图按生成量收费、转录文本按分钟收费、模型实例租赁费。
其中,GPT-35 模型按代币数量计费(分解单位,大致相当于中文一个单词),每 100,000 个代币收费 4 美分。 美国.app市场的顶级应用,用于服务营销文案的 Jasper 和聊天机器人 Chat with Ask AI 都是基于 OpenAI 模型开发的应用,其核心成本也是 OpenAI 的 API 调用费。
其次,它为训练和运行大型模型提供人工智能计算服务。
算力服务一直是云计算最基础的服务,也就是IaaS层的服务。 IaaS 最初旨在为企业提供集中式服务器、数据存储等底层技术服务,后来在此基础上发展了 PaaS 和 SaaS。
对AI算力的需求,重构了云厂商IaaS层的服务器、网络和存储。 例如,在提供算力的服务器中,需要购买大量搭载NVIDIA的GPU服务器,并重建其之上构建的系统和网络服务。
未来,大型模型还可能重构PaaS层和SaaS层。
最重要的是,云供应商还可以探索新的支付模式例如,基于开源模型,形成开发者社区,实现AI PaaS服务,为开发者提供算力和模型以外的服务,如数据库、中间件等开发者训练大模型所需的服务。
此外,在SaaS层,更多的企业SaaS产品开始基于AI(AI-based-SaaS),在应用层将探索AI从SaaS辅助工具到AI原生SaaS产品(基于特定大模型的SaaS产品),再到AI代理SaaS(agent-as-a-service)。
首先,我们需要明确云厂商在提供MaaS服务时想做谁
模型厂商的钱,包括大模型和行业模型,比如百川智能,都在阿里云上运行,行业模型是一种趋势。 说到底是B端企业的钱,针对C端AI应用变现的问题,我们在之前的文章中写道《大模型是不是太翻了,AI应用好做吗?中讨论了 。
云厂商也可以做自己的行业模式,但每个行业再来一次,投入高,周期也比较长,增加了盈利的难度。
当大模型投资热回归理性时,理想的循环是企业客户可以将行业模型及其提供的工具应用到自己的运营、生产、财务管理等业务中,应用改进后,才会愿意继续付费,这样模型厂商就能赚钱, 云供应商也赚钱。
技术落地的过程是从模型到工具再到场景,但商业化是从应用场景开始的。
中国公有云市场占有率低的部分原因是盈利能力较弱,因此在评估了收益和成本后,对SaaS的支付意愿并不高。
因此,云厂商通过MaaS服务可能会遇到与SaaS类似的问题,即从供给侧到需求侧,都没有像国外那样形成成熟的管理模式和市场环境,也没有形成标准化的产品,无法低成本复制。 (详见《中国SaaS之死:差距如何逐步扩大》)。
当然,MaaS也不同于SaaS,因为在大模型的辅助下,MaaS可以更好地适应用户定制的需求,因此标准化和定制化的困境将在一定程度上得到解决。
另一个重要因素是成本。
提供MaaS服务需要极高的AI算力,云厂商需要购买大量的GPU芯片来构建新的服务,以满足日益增长的AI算力需求。 今年,Microsoft 和 Meta 分别从 Nvidia 购买了 150,000 个 H100GPU,阿里和字节分别购买了 30,000 个和 2 个50,000 和 20,000 件。 这些芯片将部署在适合训练和运行大型模型的新服务器上。
除了外部采购,国内云厂商也在加紧布局自研AI芯片或拓展其他采购渠道。
今年10月23日,美国开始实施新的芯片出口管制,英伟达的高性能AI芯片——A800、H800、L40S等被禁止出口。 因此,国内云厂商无法购买国外高性能芯片,这成为国内云厂商提供AI算力的制约因素。
根据研究报告,一台配备 Nvidia A100 芯片的服务器售价 20 万美元,一台服务器配备 7 颗 A100 芯片,单芯片**为 1大约 50,000 美元。
云厂商购买的计算资源需要足够大的使用量和用户规模才能产生收益。 而随着大模型热的消退,谁也说不准会有闲置资源。