本报记者秦晓北京报道。
除了给人们带来惊喜之外,人工智能还催生了数据泄露、电信诈骗、个人隐私风险等问题。 为此,各国纷纷制定相关政策和法规来规范人工智能的使用。 在中国,国家互联网信息办公室和国家发展和改革委员会(NDRC)等七个部门联合发布了《生成式人工智能服务管理暂行办法》美国此前也出台了一系列监管性文件。
在欧洲,人工智能监管较早被提上议事日程,人工智能监管法案也将实施。 此前,欧洲议会通过了一项授权草案,以谈判《人工智能法案》(AI Act)。 然而,该法案的后续谈判持续了六个月,这也引发了人们对欧盟是否会在人工智能领域落后的担忧。
不过,据外媒最新消息,来自欧洲议会、欧盟成员国和欧盟委员会的谈判代表已经就生成式人工智能工具的一系列控制措施达成一致。 《第一财经日报》记者注意到,包括OpenAI的ChatGPT和谷歌的Bard,都引起了全球的广泛关注。
狂欢节下隐藏的烦恼
OpenAI在去年年底研发的ChatGPT引发的AI浪潮已经超出了大家的预期,其对各行各业的渗透、扩散和颠覆日益增多,尤其是以预训练大模型和AI for Science为代表的新兴技术正在引发新一轮的AI创新。 随着大模型带来的生成式人工智能的突破,科技、经济、社会等领域也将迎来深刻变革。
这种颠覆性主要体现在大模型技术的快速迭代,突破了原有AI技术发展的上限,呈现出海量数据量化、模型泛化、应用模式集中化的特点,以“无限生产”的能力重塑企业生产引擎,推动生产效率的颠覆性提升。 从全球范围来看,大模型的开发和应用在世界范围内得到积极推动。
但与此同时,关于人工智能监管的讨论一直在进行。
当前,生成式人工智能的快速发展与相关法律法规、标准体系、伦理规范的建立是相矛盾的。 隐私和数据保护风险、版权侵权风险、深度伪造风险、失业人数增加以及歧视和偏见风险正在曝光。
随着问题日益突出,各国也将人工智能监管提上日程。 根据斯坦福大学发布的《2024年人工智能指数报告》,对127个国家立法记录的调查结果显示,包含“人工智能”的法案通过成为法律的数量从2024年的1项增加到2024年的37项。 该报告对2024年以来81个国家的人工智能法律法规记录的分析同样表明,全球立法过程中对人工智能的提及数量增加了近6次5次。
除中美外,欧盟在推动人工智能立法和监管方面相对缓慢。
2023 年 6 月,欧洲议会以 499 票赞成、28 票反对、93 票弃权的投票结果,以压倒性优势通过了《人工智能法案》谈判授权草案。 根据欧盟立法程序,欧洲议会、欧盟成员国和欧盟委员会进行“三方谈判”,以确定该法案的最终条款。
据悉,该草案包括对底层模型进行监管的分级管理方法,该模型被定义为拥有4500多万用户的模型。 聊天机器人 ChatGPT 被定义为具有额外义务的非常有能力的基础模型 (VCFM),包括定期审查潜在漏洞。
值得注意的是,关于该法案的谈判持续了六个月。 争议在于如何在保护自己的人工智能初创企业和潜在的社会风险之间找到平衡。 包括法国和德国在内的一些欧盟国家反对这些规定,称它们不必要地阻碍了当地企业的发展。
对此,谷歌全球总裁兼首席法务官肯特·沃克(Kent Walker)表示,欧盟应该以最好的人工智能规则为目标,而不是制定第一个人工智能法规。 “技术领先需要在创新和监管之间取得平衡,”他说。 监管机构不应对人工智能的发展施加限制,但应在违反公众信任时追究其责任。 ”
“我们早就说过,人工智能太重要了,不能无人看管或不受监管,”肯特沃克说。 监管机构应该竞相制定最好的人工智能监管,而不是第一个监管。 ”
OpenAI首席执行官山姆·奥特曼(Sam Altman)对此表示赞同:“我们不需要严格的监管,子孙后代可能也不需要它。 但在某些时候,当人工智能模型可以提供相当于整个公司、整个国家或整个世界的东西时,也许我们确实需要一些集体监督。 ”
然而,荷兰数字化大臣亚历山德拉·范·赫弗伦(Alexandra van Huffelen)表示:“欧盟必须在今年年底前达成协议,特别是在通用人工智能方面。 全世界的公民、利益攸关方、非政府组织和私营部门都在期待我们制定一项有意义的人工智能立法。 ”
政治风险咨询公司欧亚集团(Eurasia Group)的技术政策分析师尼克·莱纳斯(Nick Reiners)表示,“欧盟人工智能法案不太可能成为世界领先的行业监管标准,在明年的欧洲议会选举之前,它可能不会达成一致,而且在周三的最后一轮谈判中,有很多事情需要敲定,即使他们像预期的那样工作到深夜, 他们可能不得不推迟到明年。 ”
监管已成为全球共识
不仅在欧洲,生成式人工智能的伦理和安全治理已成为全球人工智能领域共同关注的问题。
在中国,国家互联网信息办公室会同国家发展改革委员会、教育部、科技部、工业和信息化部、公安部于2024年7月13日联合颁布了《生成式人工智能服务管理暂行办法》,秉承发展与安全并重的原则, 鼓励创新与治理相结合,实施包容、审慎、分类的监管措施,旨在提高监管的效率、准确性和敏捷性,该措施于2024年8月15日生效。
美国出台了《人工智能风险管理框架》和《人工智能权利法案蓝图》等一系列自愿性标准,强调人工智能的创新与发展,倾向于采用组织自愿遵守的准则、框架或标准,用于人工智能应用的软治理。
此外,2023 年 10 月,联合国成立了一个高级别人工智能咨询机构,以应对人工智能技术带来的风险和机遇,同时支持国际社会加强治理。
在上届人工智能安全峰会上,来自美国、中国、欧盟等28个国家的代表和企业签署了《人工智能安全布莱切利宣言》,重申了“以人为本、值得信赖、负责任”的理念。人工智能发展模式,呼吁国际社会合作,强调人工智能的实施旨在保障人权,实现联合国可持续发展目标。
中国科技部副部长吴朝晖在峰会上表示,人工智能治理是世界各国面临的重要问题。 他强调,在发展人工智能的同时,要积极倡导以人为本、智能化、精益求精,加强技术风险管理。 同时,吴朝晖还提出建议,提升发展中国家在人工智能全球治理中的代表性和话语权,弥合智力鸿沟和治理能力鸿沟。
中国科学院自动化研究所研究员曾毅认为,虽然先进的人工智能有可能解决目前在健康、教育、环境和科学等领域尚未解决的挑战,但创造这些好处的人工智能系统的性质已成为一个巨大的风险。 当更大、更不确定的模型向所有人开放时,误用和滥用问题不仅对人工智能科学家,而且对整个世界来说都是一个挑战。 “我们需要建立一个涵盖整个世界的安全人工智能网络,以应对不可预测的进展和失败,”他补充道。 ”