**:飞象网络。
随着AI技术的快速发展,大模型已成为推动AI向前发展的关键驱动力。 然而,对于企业来说,如何保障数据安全和隐私保护已经成为一个不容忽视的问题。
对此,某零售集团的技术人员表示,他们正在试验的AI模型仍然局限于单个门店,出于安全和权限考虑,他们不敢向大模型提供更多的数据。 企业的这种谨慎态度,是建立在对数据安全和隐私保护的深刻理解之上的。
在推动AI大模型应用的过程中,猎户星深知数据安全和隐私保护对企业的重要性。 有些内容不应该使用ChatGPT这样的大型公共模型来制作,因为一旦泄露了秘密,就会威胁到公司的安全。
例如,当用户想要使用AI模型时,他们需要先将自己的知识和数据输入到大型模型中。 这样一来,用户就会得到大模型的帮助,大模型就会越来越智能。 但是,在像ChatGPT这样的大型公共模型的情况下,用户自己的数据也将用于帮助同样使用该模型的竞争对手。
事实上,越来越多的业内人士已经意识到,由于企业级应用往往涉及专业场景和多人协同工作,因此他们更加关注协同办公场景和数据的私密性。 对于那些拥有特别敏感和高价值数据的企业来说,对定制或私有化的人工智能模型的需求更大。 正如中国移动的王恒江所指出的,“我们的很多数据必须私有化、个性化,不能公开,这是肯定的,尤其是端面,我们的手机和个人家居硬件中存在着大量的隐私数据。 ”
对于那些从事工程软件的公司来说,他们也绝对不愿意向公共领域的大型模型提供信息。 这同样适用于半导体等公司,以及医疗领域的私人数据和拥有大量汽车零部件BOM数据的汽车制造商。 因为这些公司的数据非常有价值。
因此,在很多领域,仅依靠一般的大规模模型可能无法实现实施,尤其是在企业安全、财务、政务等方面。 如果这些公司和组织想要搭上人工智能的潮流,他们只能建立私有模型。
傅晟指出,开放AI目前几乎已经阅读了互联网上所有公开发布的数据。 但无论互联网多么庞大,它也是人类知识体系的冰山一角。 每个公司的文档都有自己的竞争力和特点。 他强调,“企业要想有竞争力,就要采用私有化模式,让业务数据在内部流通,让企业过去留在大家脑海中的经验成为整体决策智能的一部分。 ”
无论如何,企业大模型的私有化是AI决策智能发展的必然趋势。 随着对数据安全和隐私保护的需求日益增加,以及公共模型的潜在风险,企业将更倾向于构建私有AI模型。 只有这样,企业才能在AI浪潮中保持竞争力,实现可持续发展。