过去一年,以ChatGPT为代表的生成式人工智能的快速发展,给各国监管机构带来了重大挑战。 亟需就人工智能治理,尤其是人工智能监管达成全球共识,防范可能出现的重大风险。 然而,目前全球监管格局分散,主要经济体在人工智能及其治理的基本概念、价值观、路径和策略上存在分歧,主要经济体也在激烈争夺人工智能治理的话语权。 对此,中国应在国内人工智能治理体系迭代完善的基础上,通过推动全球共治共享、构建监管合作规则、加快制定国际标准、创新多边协调机制等方式,不断提升国际人工智能治理影响力。
2023年以来,以ChatGPT为代表的生成式人工智能(AI)多场景应用快速展开,技术迭代升级背后潜在的异化风险带来了新的监管挑战。 围绕人工智能治理,尤其是人工智能监管,世界主要经济体正在加紧努力成为规则制定者。 但与此同时,全球监管格局仍存在碎片化、区域化,各大经济体在人工智能的基本理念、价值观、路径和策略上存在分歧,多种因素制约着国际监管协调的进程。 防止各国根据不同的规则、术语和要求实施法规是全球监管机构面临的一项重大挑战。 对此,中国应着力推动全球共治共享,构建监管合作规则,加快制定国际标准,创新多边协调机制,不断提升人工智能治理的国际影响力和话语权。
1 全球主要经济体加快探索人工智能监管2023年以来,主要经济体的人工智能监管明显加快,相关立法、指引和规范相继出台或提上日程,部分经济体成立了新的专门治理机构或委员会。 首先,欧盟依靠法律、法规和指令全面实施强有力的监管。 2021年4月,欧盟提出《人工智能法案》草案,根据不同的安全风险等级,将人工智能系统分为四类:最小风险或无风险、有限风险、高风险和不可接受的风险,并相应采取不同的监管措施,极端情况下,违规公司可能被处以最高3000万欧元的罚款,或公司全球年收入的6%。 2023年6月,欧洲议会批准了《人工智能法案》草案,正式进入欧洲议会、欧盟委员会和欧盟成员国的三方谈判进程,预计年底前达成协议,2026年对相关企业产生影响。
其次,美国倾向于“软”监管来规范和引导。 主要通过地方自治、行业规则、自愿倡导等“软”方式进行监管和引导,监管引导的主要目标是促进人工智能的发展。 2020年1月,白宫科技政策办公室发布了《人工智能应用监管指南》,提出了一系列风险评估和管理方案,但其重点仍然是确保监管规则不会阻碍人工智能的发展。 2022 年 10 月,白宫科技政策办公室发布了《人工智能权利法案蓝图》,其中概述了美国公众应享有的五项核心权利:免受不安全或低效系统系统的自由、免受算法和系统性歧视的自由、保护个人隐私、了解人工智能系统的使用以及了解人工智能产生最终结果的方式和原因; 以及选择不使用人工智能技术的权利。2023 年 1 月,美国商务部发布了 AI 风险管理框架,将可信度考虑因素纳入 AI 产品、服务和系统的设计、开发、使用和评估中。 2023年以来,美国更加关注人工智能立法:6月,民主党众议员廖德德等人提交了国家人工智能委员会法案提案; 今年7月,美国国务卿安东尼·布林肯(Antony Blinken)和商务部长吉娜·雷蒙多(Gina Raimondo)在《金融时报》上发表了一篇文章,呼吁制定更好的人工智能监管法案。 在出台实质性法律法规之前,美国**希望通过“自愿承诺”来实现安全、可靠、透明的人工智能技术的发展目标。 2023 年 7 月 21 日,白宫宣布,亚马逊、Anthropic、谷歌、Inflection、Meta、Microsoft 和 OpenAI 七大 AI 巨头“自愿”做出一系列应对 AI 风险的承诺。
第三,中国既实行“软”引导,又实行“硬”约束。 在硬约束方面,随着《电子商务法》《数据安全法》《个人信息保护法》《网络安全法》的陆续颁布实施,人工智能领域底层规则的基石逐步规范化。 国家互联网信息办公室等发布了《关于加强互联网信息服务算法综合治理的指导意见》、《互联网信息服务算法管理建议书》、《互联网信息服务深度综合管理规定》,为规范生成式人工智能等应用场景制定了基本框架。 2023年7月,国家互联网信息办公室(网信办)联合7个政府部门联合发布了《生成式人工智能服务管理暂行办法》,成为全球首个生成式人工智能强约束规则。 在“软”引导方面,2019年,中国发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。 随后,《新一代人工智能伦理规范》和《科技伦理审查办法(试行)》等文件,围绕科技伦理、算法治理、行业应用安全等方面,为解决人工智能带来的社会规范失序和伦理问题提供了重要指导。 2023年3月,中国成立国家数据局,负责协调和推进数据基础设施体系建设,协调数据资源的整合、共享、开发和利用,进一步夯实人工智能监管组织架构的新基础。 中国“软”与“硬”相结合的治理方式一直走在世界前列,如果能够实现动态优化迭代,该模式将成为国际AI治理的重要参考。
第四,英国、东盟等国家正在积极抢占人工智能监管的制高点。 2023 年 3 月,英国发布了“创新人工智能法规”,4 月发布了“生成式人工智能使用指南”。 今年6月,英国宣布将于下半年举办首届AI安全全球峰会,汇集全球“志同道合”的国家,制定AI规范,力争在英国建立全球AI监管机构。 东盟正在起草人工智能监管指南:据路透社2023年6月16日报道,新加坡在起草人工智能治理规范和道德指南方面处于领先地位,预计将在2024年初的东盟数字部长会议上正式宣布。 印度也在积极采取行动,试图通过拟议的《2023年数字印度法案》加强对人工智能的监管。
2 全球人工智能监管合作的主要困境目前,全球人工智能监管合作的主要困境主要体现在监管国与监管国之间的不平衡、监管基本概念和概念的差异以及相关国际组织作用的有限等方面。 2.1 监管碎片化加剧,失衡现象凸显一方面,主要经济体的人工智能监管方案差异很大,导致监管碎片化。 2023 年 3 月,加拿大国家治理创新中心发布报告指出,截至 2022 年 8 月,全球已有 62 个国家向经合组织人工智能政策观察站(OECDAI)提交了800多份与人工智能相关的政策文件或倡议,以报告该国支持人工智能发展和治理的举措。其中,主要发达经济体提交的相关倡议大多。 分析发现,各国监管措施类型不明确,各类政策文件内容重叠,对政策的有用性、可信度和独立性缺乏评价,尤其是人工智能领域的国际合作或援助措施相对较少,凸显了人工智能监管的碎片化。 另一方面,人工智能创新应用主要集中在发达国家,监管失衡问题加剧,发展中国家缺乏话语权。 发达国家在数据资源、模型算力、人才能力等方面具有优势,因此更有能力推动人工智能研发和应用,也更有可能从中受益。 相比之下,发展中国家国际分工中的劳动参与模式受到严重挑战,对应国家AI技术采用率低,应对数据泄露、隐私保护、算法偏差等潜在风险的能力不足,难以形成有效的监管措施; 这将进一步拉大发展中国家与发达国家的技术差距,甚至加剧国家权力分配的不平等。
2.2 监管方法不同,互操作性不足
首先,基本概念存在差异。 目前,监管机构在人工智能的定义、风险分类以及“负责任”和“值得信赖”的含义等许多概念上存在分歧。 例如,美国《人工智能权利法案蓝图》使用了人工智能的广义定义,其中不仅包括机器学习系统,还包括大多数类型的软件。 英国的《创新人工智能法规》将人工智能定义为“具有'适应性'和'自主性'的产品和服务”,但没有指出特定的算法功能或产品类型。 基本概念定义的差异极大地影响了人工智能监管的范围和程度,并深刻制约了行业规则和立法的制定,导致不同国家有不同的合规要求。 其次,价值观存在差异。 目前,人工智能多边协调框架存在政治化风险,美国、欧洲等西方发达国家在七国集团、美国和欧盟**以及技术委员会(TTC)的框架下开展了一系列监管协调活动,但频频宣称要在“共同民主价值观”的基础上开展相关合作, 并打算将所谓的价值观引入未来的全球人工智能监管体系。与此同时,个别国家不断利用行业标准、国际法规等监管手段进行大国间博弈,导致全球人工智能技术发展和监管治理中的战略分歧和监管冲突加剧。 然而,亚洲、非洲和拉美等发展中国家基本上被排除在发达国家之间与人工智能相关的协调机制或倡议之外,这显然不符合全球可持续发展的要求。 三是监管模式存在差异。 良好的监管可以使公共利益最大化,并将风险降至最低。 人工智能监管模式因国家而异,监管效果也不同。 欧盟试图通过单一法案来监管几乎所有的人工智能应用,该法案创造了更全面的监管范围、更集中的协调方法和更严格的监管要求。 美国监管的核心是“避免阻碍人工智能创新和增长的不必要的监管或非监管行为”,没有全面的立法体系,更多的是通过地方自治、行业规则和自愿倡导来解决人工智能技术应用背后的安全问题。 与美国类似,英国也专注于制定人工智能指南,赋予监管机构权力,并仅在必要时采取法定行动。 上述两种监管模式带来不同的监管效果。 由于人工智能技术的不断涌现和迭代升级,政策制定者很难清楚地了解未来由此带来的风险和收益。 因此,欧盟强有力的监管模式虽然有利于风险防控,但不利于前沿技术的发展。 尽管美国和英国最近呼吁加强监管,但立法进程仍处于起步阶段,尽管其薄弱的监管模式有利于鼓励技术创新,但可能会加剧技术异化背后的潜在风险危机。
2.3 国际协调缓慢,国际组织的作用有限
首先,经合组织的地位已经得到许多国家的认可,但并不具有实质性约束力,难以推动全球人工智能监管框架的形成。 虽然全球已有46个国家签署了经合组织人工智能原则,并得到了G20以及中国和俄罗斯等主要经济体的认可,但其影响范围仍主要集中在发达国家。 由于缺乏以可信的方式评估人工智能实施情况的有效方法,各国在实施这些原则方面做得并不好。 此外,由于经合组织没有立法权,难以制定具有约束力的国际条款来规范人工智能的发展和使用,只能通过认知权威、规范制定和议程设置来协调全球人工智能治理,但不能有效促进国际监管合作。
其次,联合国作为人工智能治理的重要平台,面临着缺乏权威标准等挑战,限制了其在国际协调中的作用。 2023 年 3 月底,教科文组织发表声明,呼吁所有国家尽快落实该组织通过的首个人工智能伦理全球协议《人工智能伦理建议书》,40 多个国家与教科文组织合作,根据该建议书制定宏观层面的人工智能规范性措施。 7月18日,联合国安理会召开了以“人工智能给国际和平与安全带来的机遇和风险”为主题的高级别公开会议,这是安理会首次就人工智能问题举行会议。 需要指出的是,在推动人工智能监管合作的过程中,联合国仍面临诸多挑战,如缺乏权威性标准、国际规范制定缓慢、需要加强协调机制等,制约了联合国推动该领域国际监管合作的成效。
第三,七国集团(G7)国家积极推动国际标准的制定,但意图在价值观的基础上划清界限,建立“小圈子”。 近年来,七国集团(G7)对人工智能的讨论逐渐从部长级升级到领导层级,全球人工智能伙伴关系(GPAI)的影响力迅速扩大到七国集团之外,成为限制中国对全球人工智能监管体系影响力的有用工具。 2023年4月,七国集团(G7)数字与科技部长会议发表联合声明,同意引入“基于风险”的人工智能监管法案; 今年5月,七国集团(G7)领导人发布《七国集团(G7)领导人公报》,强调人工智能等数字技术的规则应“符合共同价值观”,年底前将成立专门讨论人工智能进展的部长级论坛,并敦促经合组织等国家加快建立国际标准。 今年6月,美国和英国发表《大西洋宣言》,强调需要在美英之间架起一座数据桥梁,并与盟国合作推出人工智能安全措施。 这一系列行动表明,西方国家将全面开展人工智能等新兴技术的全球监管和治理,并将其作为未来掌握话语权、提升全球领导力的重要领域。
3 启示与建议当前,人工智能技术的快速发展将全球人工智能监管推向了一个新的阶段,迫切需要在全球层面形成合力来应对挑战,并通过法律、规则和政策的创新,打破以碎片化和区域性为特征的全球监管不平衡对技术创新和应用造成的障碍, 并最大限度地发挥人工智能的潜在优势。作为世界上最大的发展中国家,中国应坚持“以人为本”的基本理念,充分利用多边机制,有组织地充分发挥企业和其他创新主体的作用,通过增强国际话语权,积极推动构建多元化、高效、公平、公正的全球人工智能监管合作框架。
首先,我们需要建立“以人为本”的监管合作规则。 坚持以德为先,以“以人为本”和“智能向善”为基本准则,规范人工智能的发展方向。 在此基础上,逐步建立健全人工智能伦理、法律法规和政策体系。 其中,重点是加强风险意识,建立有效的风险预警和响应机制,明确风险定义和风险等级分类,合理设定不同参与者的权利义务,确保不发生人为控制范围的风险。
二是利用现有多边机制,推动全球共治共享。 坚决抵制少数重点国家在人工智能领域的霸权逻辑,突出与世界各国的协同治理与合作。 加强人工智能安全等重大国际共性问题研究,努力在二十国集团、亚太经合组织、金砖国家会议或双边国际研讨会上增加相关议题,提升中国在人工智能全球监管和治理中的影响力,争取发展中国家在技术开发、部署和应用方面有更多的话语权,努力缩小数字鸿沟和能力差距。 第三,探索建立和积极参与新的多边协调机制。 联合国秘书长安东尼奥·古特雷斯公开表示,他计划在2023年9月任命一个人工智能咨询委员会,并支持以国际原子能机构为榜样,建立一个基于专业知识和监管权力的全球监管机构。 对此,中国应抓住机遇,积极规划参与项目和候选者,争取在新成立的联合国国际监管机构中获得更多席位,赢得引领全球人工智能监管规则制定的战略主动权。 四是支持和鼓励企业参与国际标准的制定。 在人工智能国际标准中,基础标准为所有用例阐明了一套通用的语言和框架,有助于提高不同监管框架之间的互操作性。 鼓励一线企业和相关机构更多地参与国际标准化组织(I.S.I.C. JTC1 SC42)等机构制定的人工智能基础标准。 除中国主导的数据质量流程框架外,我们应积极参与其他工作组的相关工作,推动制定数据质量与治理、可信与安全等包容性国际标准,推动形成具有敏捷治理特色的监管战略,让各国基于基本标准完善本国监管体系。