近日,欧洲议会、欧盟成员国和欧盟委员会就《人工智能法案》达成协议。 该法案将是全球首个人工智能领域的综合性法规,但立法实际上并不顺利,过程一直受到质疑和重复。
《人工智能法案》进一步补充了欧盟新兴的数字规则手册,其中包括《通用数据保护条例》、《数字服务法》和《数字市场法》等法案,这些法案规范了数字经济的不同方面。 《人工智能法案》于 2021 年立法。 去年6月,空中客车公司(Airbus)和西门子(Siemens)等多家欧洲大公司表示,该法律过于严厉,无法促进创新和帮助当地工业。 此前,法国、德国和意大利也曾对草案中的一些条款表示反对,认为这些法案将影响本国人工智能初创公司的发展。
关于《人工智能法》,主要有两个争论点,一个是在公共场所使用包括面部识别在内的实时生物识别技术二是基础模型和通用人工智能(AGI)的监管。 生物识别技术最棘手的谈判困难之一是实时生物识别工具受到限制的程度。 除了维护和执法等个别案例外,该法案原则上禁止实施生物识别技术,因此在公共场所使用该技术有很多限制,这里不再赘述。 下面主要谈谈大模型和通用人工智能的监管。
欧盟《人工智能法案》的核心是风险分类系统,该系统根据人工智能系统对人们的健康、安全和基本权利构成的风险程度对其进行监管。 风险分为四类:不可接受、高风险、有限风险和最低零风险。 通用人工智能的提供者将承担与高风险人工智能系统类似的义务。 开发人员必须满足各种要求,以证明其技术及其使用不会对健康、安全和基本权利构成重大威胁。 开发人员需要提供风险管理和数据治理实践、监控和记录保存实践、详细文档以及 AI 透明度和人工监督义务,以确保 AI 准确且稳健,符合网络安全标准。 高风险的人工智能系统还必须在欧盟范围内的公共数据库中注册。
对于大型语言模型开发人员,有基本的透明度要求。 构成系统性风险的生成式人工智能应用程序的开发人员将需要根据计算能力、商业用户数量和模型参数签署自愿行为准则。 对计算能力超过 10-25(GPU 数量)的 AI 模型作为基本模型进行定性鉴定,超过这些阈值的模型将面临额外的义务,包括严格的评估、系统的风险评估、网络安全措施和能源消耗披露。
作为全球首个人工智能领域的综合性法规,欧盟的提案可以给我们一些启示。 首先,该法案反映了欧盟在人工智能领域弯道超车的愿望。 美国在互联网行业已经形成了“天然垄断”,但相比之下,新兴的人工智能产业仍处于百家思坛。 尽管美国Microsoft等科技巨头拥有一定的先发优势,但初创企业仍然可以在新赛道上取胜。 如果《人工智能法案》限制了创新,它可能会重蹈DeepMind被迫出售给谷歌的覆辙。 德国初创公司 Aleph Alpha GmbH 上个月筹集了超过 5 亿美元,法国的 Mistral AI 也在新赛道上处于领先地位。 如果欧盟在这个时候熄灭创业之火,无异于长城的自我毁灭。
其次,该部门很难对人工智能等新兴技术进行全面监管,因为目前还无法准确确定人工智能技术的影响。 就像人类无法在第一辆车进行设计和测试之前制定详细的交通法规一样。 开发过程中复杂的法规也可能导致技术开发的延迟。 为了在开发与监管之间取得平衡,建议将技术监管和应用监管分开,放宽对技术开发的初始限制。
此前,美国与Microsoft、OpenAI等7家领先的人工智能公司签署了自愿性信息透明协议,欧盟在此次立法中进一步强制人工智能企业在开发通用人工智能时签署自透明协议,两者本质上都将社会监管变成了企业内部的自我监管。 因此,人工智能龙头企业的内部治理尤为重要。 这些公司的董事会需要由具有不同价值观的专家来平衡,以实现内部制衡。
其他山峰的石头可以用来攻击玉石。 欧盟《人工智能法案》中发展与监管的平衡、龙头企业内部监管、龙头企业董事会的专家参与机制,或许为不同国家对人工智能的监管提供参考意义。 (作者为千鑫集团工作人员)。