最近,美国成立了人工智能安全研究机构联盟(AISIC)。 它是美国技术与技术研究所人工智能安全研究所的一部分,将致力于为先进的人工智能模型制定合作研究和安全指南。 美国人工智能治理的这一新趋势,将人工智能(AI)与安全直接联系在一起,值得我们密切关注。
人们与 2024 年消费电子展 (CES) 标志合影。 (*摘自中新社)
这首先标志着美国将人工智能安全问题提升到国家战略层面。 过去几年,美国不断加大对人工智能研发的投入,在算法、芯片、应用场景等方面都取得了长足的进步。 与此同时,华盛顿越来越意识到人工智能可能带来的安全风险,例如使用深度学习的语音合成和图像生成技术产生的误导性和欺诈性信息。 算法偏见在自动驾驶和医疗辅助决策等领域造成的歧视和伤害; 数据和模型中的隐私和权限控制漏洞导致的安全事件; 以及不同自动化系统之间信息交换和决策错误的连锁反应。 特别是最近的大语言模型技术,将人工智能的有效性提升到了一个新的水平,同时也带来了更大的安全挑战。 正是基于对各种潜在风险的认识,美国**通过建立AISIC将人工智能安全问题提升到国家战略层面,以促进跨部门、跨域的系统治理。
人工智能安全研究所联盟的主要任务之一是为红队攻击、安全检测评估等制定指南。 所谓“红队攻击”,是指一套模拟黑客渗透系统,发现系统漏洞的测试方法。 一旦这些指南和标准建立起来,它们将为人工智能安全研究的发展带来标准化和制度化的指导。 例如,基准测试要求推动了在设计和开发各种系统期间必须考虑和实现的安全指标。 风险评估框架为整个人工智能技术生命周期的安全研究提供了更清晰、更系统的方法。 虽然国内一些机构(如中关村实验室)也对大型模型的安全性进行了一定的技术研究,并进行了初步的评价体系建设,但相关标准化工作总体上仍相对薄弱。 这提醒我们,我们需要密切关注并加快在数据评估、模型审计和算法鲁棒性等领域的测试和标准研究的部署。
联盟采用引领潮流、产学研多方参与的组织模式。 除相关部门外,知名企业安全部门负责人,以及顶尖高校和科研机构的专家学者也参加了会议。 一方面,突出了美国促进产学研在重大战略科技领域的联合研究和深度合作的政策导向; 另一方面,也反映出人工智能安全问题的高度复杂性,需要跨界、跨领域的合作和融合创新。 进一步加强部门与企业、高校、科研院所在人工智能安全标准制定、监管体系建设、技术研发等方面的信息沟通与合作,形成政策引导、规范建设、科技供给的协同效应。
未来,美国很有可能继续在AI安全领域推出更重要的措施,进一步完善顶层设计和治理结构。 鉴于人工智能发展仍处于上升趋势并呈现加速迹象,各种应用创新层出不穷,安全风险和风险将逐渐显现。 因此,美国在安全政策、法规和技术解决方案方面的持续努力需要我们的积极关注。 同时,这也为我国人工智能安全治理体系的建设提供了重要经验。
中国还可以采取一些有效的措施来提高人工智能系统的安全性。 例如,通过及时掌握人工智能安全领域的最新情况,可以更早地发现可能的风险点:可以构建动态的人工智能安全事件监控系统,并通过对最佳人工智能系统的输出进行实时监控,实时跟踪国内外人工智能领域的数据泄露、算法判别等安全事件。 在此基础上,可以进一步开发AI系统的检测工具输出,对AI生成的内容进行文本、音频、**等不同模式的安全风险审查。 此外,还需要建立快速的AI系统安全风险反馈和补救机制。 换句话说,当检测到算法或模型产生的不适当和有害内容时,可以快速定位系统中的问题并反馈给相关公司和研究机构,要求他们修改模型以降低风险。 这样的“监测-检测-反馈-纠正”闭环体系,可以更及时地发现人工智能的安全隐患,推动行业主体积极履行安全生产责任。 总的来说,我们需要有更清晰的思路和行动指南,以构建系统化、标准化的人工智能安全政策和技术体系。 (完) (作者为北京航空航天大学人工智能学院教授)
作者:Sha Lei。
*:环球时报。