作者 |钟声一直在响起。
文 |贝尔说。
能力越大,带来的价值就越大,但如果“人品”不好,这样的人就越危险。
这是评价一个人的普遍共识。
如今炙手可热的大模型也面临着同样的“评估标准”。
2024年初,欧美数千人联名公开信反对ChatGPT的快速发展,信中提到:
人工智能的研究和开发应该重新专注于优化最先进的系统,使其更加准确、安全、可解释、透明、健壮、一致、值得信赖和忠于人类。 与此同时,人工智能开发人员必须与政策制定者合作,推进强大的人工智能治理体系。 ”
这股反对浪潮,加上席卷全球的大规模模型技术浪潮,构成了2024年人类科技发展大局的背景色彩。
随着2024年接近尾声,以马斯克为代表的明星们仍在以各种方式表达对大模型的担忧,“人工智能比核弹更危险”。
尽管马斯克大力投入开发自己的大模型,但他在国内外逐渐形成了对大模型这个可以实现巨大“价值爆炸”的核弹进行监管的共识,并建立和引导行业规范。
这一共识不仅基于“人性”“未来”等宏大叙事,更重要的是,也与行业的落地息息相关。
不久前,在全国信息技术标准化技术委员会人工智能分委会全体会议上,国内首个官方“大模型标准符合性评价”结果正式公布,包括文信大模型在内的几款大模型在第一批中通过了评估。
当2024模式注定要展现出商业价值的实力时,行业规范的建设也在默默完善,能够给工业场景中的客户带来真正的信任,扫清场景落地的最后一道障碍——“信任”的建设。
01 宏大叙事的背后,是行业实施中的“信任”问题
过去,以文信模式为代表的国产模式,其实解决了工业客户关心的两个问题:
首先是价值的上限,即大模型“技术开发”的深化和认知智能的不断提升,能够为工业客户在业务转型中带来新的可能性。
与GPT-4相媲美的文心大模型 40,代表中国大模型发展的技术水平,让中国大模型在世界上拥有话语权。 对于工业客户来说,这种大模型的不断迭代,意味着服务于其业务转型升级的“大脑”越来越智能,产生业务转型价值的能力越来越强。
然后是业务契合度,即大模型“场景契合度”的持续提升,可以有效地融入到各项业务中,产生源源不断的场景应用。
截至最新数据,文信亿言用户数已突破1亿,覆盖4300个场景,其背后的文心大模型通话量位居国内第一,日均调用量数千万次,每月服务企业超过10000家。
这些数据显示了大模型行业落地过程的速度和深度。
但是,如果说“技术发展”和“场景契合”代表了大模型产业落地的“上限”,那么除了疯狂的突袭之外,大模型越来越需要关注“下限”,即“行业标准”的构建促进了工业客户对大模型的普遍“信任”。
在全球范围内,大模型之所以在2024年初“不成熟和可疑”,是因为它带来的预期影响是多方面的。
在“挖掘数据元素价值”的本质下,大模型诞生了这些隐患:
数据隐私问题——各种数据被灌入“培训”的大锅中,它们在应用时是否“无意中”透露了一些重要的个人和企业隐私?例如,与大模型发展齐头并进的“提示词攻击”越来越猖獗,通过刻意的提示词引导,导致不适当内容的产生和敏感信息的泄露。
数据安全问题——大模型意味着大量数据,为了保证效果,训练中必须包含大量的核心数据,但这些数据一旦被盗,损失将比以往的AI模型大得多,安全容错率更低。
知识产权问题——在数据输入端,数据**是否受版权支持,在结果输出端,版权属于谁?都在等待被梳理。
伦理问题——研究、制造、医学、法律......大模型已经走向了很多能够带来正面社会价值的场景,但在假冒、欺诈等“场景应用”中,大模型的“技术支持”带来的欺骗性会变强,损失的可能性也会更大。
可以看出,当问题具体拆解时,打开那些宏大叙事之下,对大模型未来发展的担忧,其实与行业的落地息息相关。
对于许多潜在客户来说,在使用大模型进行业务转型升级时,是否会直接存在数据隐私和数据安全问题?毕竟,如果商业隐私被泄露,重要数据被盗,商业运营将面临各种直接的商业竞争风险。 而会带来知识产权、伦理道德等新的“烦恼”,让企业陷入被动?
毫无疑问,这些“忧虑”是大模型行业落地的“下限”。
因此,支撑机制的建设尤为必要。
当文心模型等对象逐渐走向大型工业客户或敏感行业客户时,信任的折磨是不可避免的。
经验表明,要避免任何领域衰败的命运,行业规范的建设必须与技术和应用的快速发展同步。
在某种程度上,是否有统一、权威的行业规范,是衡量行业成熟度的标志。
正是在这样的背景下,产生了“大模型标准符合性评价”,旨在通过制定科学合理的评价标准和方法,促进大模型技术的规范化发展,提升中国人工智能技术的整体竞争力,代表了中国对大模型产业发展的指导的监管优势——我们没有各种花哨的联名信, 名人蹭蹭大字的热度,行业标准的建设有实实在在的前瞻性动作。
通过评估,意味着大模型本身也将得到行业乃至监管层面的认可,能够在行业场景中真正得到客户的信赖,不会在未来深度发展的时间节点上突然“一针见血”。
对于文信模式来说,“技术开发”和“场景契合”带来了优异的性能和广泛的应用场景,如今随着“行业标准”的建设,三大要素齐全,不仅不断提高“上限”,还锁定了“下限”,未来加速发展将无后顾之忧, 而且更值得客户信赖,2024年行业落地也可以放心“干大做”。
02 逆向突破,行业规范的持续发展也需要领导者的推动
行业标准的准则和规范是新兴产业成长和最终成长的基础。
在制度优势下,近年来,在新兴领域,我国成立了1300多个国家标准化专业技术委员会,截至2024年,已发布国家标准4万余项,行业标准7项6万余台有力推动了创新的爆发,成为中国新技术与欧美竞争的重要支撑。
然而,行业规范的建立并非易事,“大模型标准符合性评估”只是一个开始。
在开头提到的“公开信”中,提到为开发大型模型而建立的规范包括:
对大容量AI系统和大型算力池进行监管和跟踪;
可追溯性和水印系统,有助于将真实数据与 AI 生成的数据区分开来,并跟踪模型泄漏
强大的审核和认证生态系统;
确定人工智能造成的损害赔偿责任;
提供强大的公共资金......用于人工智能技术安全研究
作为新兴产业的“必答题”,大模型下一步行业标准化还有很多事情要做。
特别是大模型本身的发展速度非常快,由于迭代升级而制定的相关标准必须具有充分的前瞻性,并且必须有足够的预测,不能缺乏技术进步,或者修改调整跟不上技术更新的速度。
而且,规范建设之后,能否起到指导作用,还需要考虑一般的实施问题。
因此,国际层面的普遍做法是:行业规范的制定本身,就需要邀请行业龙头企业和专家进行新兴基础研究,以最前沿的行业探索直接丰富规范和标准的内容,使行业规范和标准既科学又可操作。
在TE智库根据RLUEEVA-System大模型评估系统发布的《中国通用大模型内容生成与安全能力测评》中,文心一颜综合得分排名第一,其“安全系统能力”无与伦比,甚至超越了同期ChatGPT的产品。
此外,强大的自然语言理解和生成能力,文本、图像、音频的多模态数据处理能力,高效的推理和部署能力,扎实的数据安全保障能力......可想而知,下一步,这类厂家不仅要成为规范和标准的制定者和执行者,还要在统一指挥下积极协助相关规范和标准的建设,使大型模型产业能够更健康地成长。
事实上,与有关方面合作,这类工作已经在进行中。
作为国内人工智能领域标准的领军力量,多次参与国家人工智能技术标准体系的设计与讨论,并作为标准的核心贡献者之一,起草了一系列人工智能预训练大模型国家标准。 2024年7月,还被中国电子技术标准化研究院授予“全国人工智能标准化组大模型专项组联合牵头单位”。
或者回到 2023 年初的公开信,将大模型的普及度提升到一个新的高度,呼吁“人工智能开发者与政策制定者合作,大力推动强大的人工智能治理体系的发展”,这在中国正在实现。
2024年,相信随着行业标准建设的加强,大模型产业的落地也将更上一层楼。
本文全部刊登在互联网上。