《哈姆雷特》中的经典对白“To be or not to be”,如今也应验在大模特领域。
如果要说,近期大模特行业最受关注的话题,一定是openai及其创始人分道扬镳、重聚的逆转。 北京时间11月18日凌晨,OpenAI突然宣布,公司CEO山姆·阿尔特曼(Sam Altman)被解雇,公司现任首席技术官米拉·穆拉蒂(Mira Muratti)被任命为临时CEO。 消息一出,立即成为全世界的头条新闻。 然而,仅仅 105 小时后,OpenAI 在社交平台上宣布,奥特曼将重返 OpenAI 担任 CEO,并将组建新的董事会。
技术创新与安全伦理的较量
这场风波引发全球关注的背后,是非营利组织OpenAI在商业化过程中不可避免的商业挑战,也折射出阿尔特曼与公司首席科学家Sutzkevy在人工智能安全、技术发展速度、公司商业化等概念上的严重分歧。 有业内人士指出,隐藏在差异之下的人工智能大模型安全问题的严重性可能远远超出我们的想象。
大模型技术作为人工智能的重要分支,在许多领域都展现出巨大的潜力和价值。 然而,随着大模型的广泛应用,数据安全、隐私保护、技术滥用等安全问题日益凸显。 例如,在数据端,用户的个人数据可能会被滥用或泄露,从而导致侵犯用户的隐私权在算法端,大型模型可能遭到恶意攻击,模型的输出结果和敏感信息可能被盗在应用端,滥用模型生成虚假信息等可能导致监管和伦理风险的问题,不仅涉及技术挑战,还涉及更深层次的社会责任和伦理问题。 如何在追求技术创新的同时保证安全道德,坚定不移地坚持大模型的“下限”,成为当前科技界亟待回答的问题。
行业规则让大型模型停止“裸奔”。
为了用好人工智能这把双刃剑,合理的政策和监管对大模型技术的健康发展至关重要,相关监管部门正在逐步沉淀。 例如,国家互联网信息办公室会同各部门发布的《生成式人工智能服务管理暂行办法》明确规定,应采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务进行包容、审慎、分类、分级监管。 生成式人工智能服务的提供和使用应当遵守法律、行政法规,尊重社会公德和道德。
在监管下,国产大车型也迎来了合理、合法、合规的发展期。 同时,行业统一的共识也需要一一沉淀。 例如,已经有从业者提出了行业协同发展。
1. 一个在隐私保护、模式效用和培训效率之间取得平衡的可信框架,企业需要做的是积极响应并积极参与,引导行业朝着更安全、更负责任的方向发展。
基础设施供应商掀起波澜“安全潮”。
面对大模型的安全挑战,除了在国家层面积极执行行业规范,从源头上加强监管外,许多基础设施厂商也高度重视,推出新产品和解决方案,为大模型的安全保驾护航,掀起了一股“安全潮”。
以新华三为例,其推出的私域模式林赛尔具有行业聚焦、区域独占、数据独占、价值独占等特点,可为垂直行业、专属区域客户提供安全、定制、专属、成长的智能服务。 其中,数据专有性可以保证 to b 和 to g 的数据不超出域外,并且是可用的和不可见的。 因为大模型训练需要数据,而通用模型的应用还涉及数据货币化、数据隐私、内外部使用等问题。 因此,私域模型的数据安全非常重要。 而Linseer则在调用数据时不会离开本地,通过私域部署、权限控制、数据加密、安全审计等方式进行多维度的安全合规建设,确保私域数据不流出。
目前,Linseer已形成以Oasis数据平台为核心的数据域、基于大模型使能平台Linseer Hub的大模型域、专注于数据安全审查的安全隔离域,以及由AI助手和AI服务组成的用户域,可为行业用户提供端到端的私域部署服务, 内置安全限制提示和出入站内容过滤拦截功能,可约束大模型生成内容在所有场景下的安全性,对所有出入站流量和内容进行安全审计和敏感信息拦截,为用户信息和数据安全保驾护航。
与市面上一般的大模型不同,百业灵犀林赛尔面向**、企业等对数据安全天生敏感的场景,让客户用自己的数据训练自己的模型,让大模型训练的安全性得到了极大的提升。
可以预见,随着各大企业在大规模模型安全方面的不断投入和创新,整个网络安全行业将被推向一个新的高度,为大规模模型领域的长期健康发展筑起安全屏障。
咨询公司麦肯锡公司的数据显示,生成式人工智能最终每年可为世界经济增加7.0%价值3万亿美元。 大模型的力量,让人类看到了通用人工智能的曙光,也让人类再次面对安全问题的“灵魂折磨”,提高大模型的安全性将成为世界各国未来的产业任务之一。 企业作为大模型发展的主要参与者和受益者,必须构建正确的价值观,将大模型的能力引导到数字经济的正向价值上,这样才能保持“下限”,享受大模型带来的长期红利。