瞭望丨直面人工智能的伦理挑战

小夏 科技 更新 2024-01-30

人工智能的伦理挑战不仅体现在“技术鸿沟”上,也体现在更广阔的领域。 这些挑战集中在四个方面。

在人工智能技术和规则方面处于领先地位的国家正处于技术优势快速积累的循环中,这很可能成为半导体领域的“瓶颈”工具,这将阻碍后发国家在人工智能方面的进步。

2024年将是全球人工智能伦理治理的元年。 各国**和国际组织已开始深入探讨人工智能的伦理问题,并出台了一系列声明、愿景和政策,试图规范人工智能的发展路径。

美国更不愿意严格限制其技术的发展,直到它绝对领先于曲线。 因此,美国在人工智能治理和技术发展方面往往落后于各国。

文 |李铮, 张兰书.

机器人在上海科技创新成果展上展出(摄于2024年11月29日) 作者:方喆本杂志。

2024年,随着新一代生成式人工智能应用ChatGPT的出现,国际社会将越来越多地讨论人工智能的伦理挑战。 越来越多的观察家发现,人工智能的快速发展可能超出了人类社会的准备范围,并认为其带来的风险不容忽视。 伦理挑战成为人工智能引发的广泛争议中最突出的话题,也将对未来人工智能与人类社会的互动产生深远影响。

从四个维度探讨了人工智能的伦理挑战。

与互联网的诞生类似,人工智能也将给世界带来重大变化。 这种影响往往是一把双刃剑,新技术既改变世界,也影响着世界,并不是每个人都能平等受益。 人工智能的伦理挑战不仅体现在“技术鸿沟”上,也体现在更广阔的领域。 这些挑战集中在四个方面。

第一个维度源于人工智能的“自主性”,这意味着该技术比其他尖端技术更有可能逃脱人类的控制。 相关的伦理挑战主要体现在人工智能是否会欺骗和控制人类意识,以及是否会减少人类发展机会。

与互联网和社交网络相比,人工智能可以更全面地了解个人、“感知”和用户的需求。 这种能力与“深度伪造”技术相结合,将进一步加强对不同群体的“控制”和“欺骗”。 通过有针对性的信息馈送,人工智能可能会创造更紧密的“信息茧”和更深层次的“意识控制”。 2023 年,英国一家法院对人工智能聊天机器人鼓励一名男子暗杀女王的案件做出了裁决,说明了这种风险。

以ChatGPT为代表的生成式人工智能的不断迭代进步,也让企业界看到了越来越广阔的“人代替”场景。 根据麦肯锡公司的数据,到 2030 年,随着人工智能等技术的进步,多达 375亿工人可能面临再就业问题。 研究公司牛津经济研究院(Oxford Economics)也得出了类似的结论,即到2024年,全球将有大约2000万个制造业工作岗位消失,这些工作岗位将被转移到自动化系统中,而被迫的制造业劳动力将被机器取代,即使它被转化为服务业工作。 在众多工作中,被人工智能技术取代风险最高的工作类型包括程序员、软件工程师、数据分析师等技术工作,以及广告、内容创作、技术写作、新闻等**工作,以及律师、市场分析师、教师、金融分析师、财务顾问、交易员、平面设计师、会计师、 客户服务等 这些工作通常受过高等教育,失业意味着人力资本的巨大损失,这将加剧一些国家的结构性失业问题。

第二个维度源于人工智能的“不透明”,这意味着该技术的隐患更难被发现,问题无法及时披露并引起社会关注。

人工智能应用离不开算力和算法的支持,但这两个重要资源并不透明。 对于生成式 AI 模型,每一代内容都需要数以亿计的参数和数据,因此几乎很难解释它们的决策过程。 流程和内容的不透明性使得AI更容易出现隐患。 大模型设计的缺乏或激进,容易导致隐私信息泄露、数据过度收集和滥用、算法不可控等问题。 生成式人工智能的输出可能具有误导性,包含不真实和不准确的信息,并误导人类的决策过程。 一些犯罪分子还可能通过“数据中毒”和“算法中毒”来误导人工智能系统,造成更广泛的系统故障。

近年来,人工智能的军事化部署一直是最令人担忧的。 各国正在加速部署人工智能系统,使得“智能战争”系统在决策中出现失误、“失火”甚至引爆和恶化战争的风险。

第三个维度源于人工智能的“可扩展性”,这意味着该技术可以被各种人和组织使用,其中可能包括一些别有用心的人。

人工智能易于移植、易于改造、易于集成,技术突破易于推广,同样的算法可能服务于完全矛盾的目的。 一些犯罪分子可以规避模型安全策略,从人工智能中提取“危险知识”,还可以将人工智能转化为犯罪工具。 据《福布斯》报道,人工智能已成为电信诈骗领域最强大的技术,任何国家都难以逃脱这场席卷全球的灾难。 由人工智能赋能的电信欺诈有可能成为世界上最有害的有组织犯罪。

第四个维度源于人工智能的“垄断”,这意味着该技术高度依赖资金投入,使用先进算法具有很高的门槛,包括设计人员的算法偏好和数据形成,容易扩大类分化。

首先,人工智能可能会加剧垄断行为。 人工智能成为营销领域最强大的“大规模杀伤力”,全方位改变了企业的营销策略。 然而,这种更精准的营销也可能助长“千人千价”等行为。

其次,人工智能可能会加剧现实世界的歧视。 人工智能应用的算法由数据驱动,这些数据涵盖了种族、性别、信仰、残疾、传染病等特定标签,反映了人类社会复杂的价值观和意识形态。 一旦在相关应用模型的训练中引入偏见,算法输出的内容可能会受到个人、群体和国家的偏见或偏爱,从而引发公平性问题。

最后,人工智能可能导致不平等的发展。 人工智能的关键专业知识和前沿技术集中在少数具有先发优势的企业和国家,这必然导致全球人工智能产业发展不平衡,更大程度上加深全球“数字鸿沟”。 同时,在AI技术和规则上处于领先地位的国家正处于技术优势快速积累的循环中,这些优势很可能成为半导体领域等的“瓶颈”工具,阻碍AI后发国家的进步。

杭州亚运会女子铁饼决赛前,一名工作人员将铁饼放在用来搬运铁饼的机器狗上(摄于2024年10月1日) 摄影:江 韩 本杂志。

全球人工智能伦理治理元年。

这些伦理挑战正引起国际社会的广泛关注。 2024年,各国**和国际组织将开始深入探讨人工智能伦理问题,并出台一系列声明、愿景和政策,试图规范人工智能的发展路径。

联合国在人工智能伦理治理方面发挥了更重要的作用。 2024年,联合国在促进各国建立共识、安全风险和治理合作方面取得了一些进展。 今年3月,教科文组织呼吁各国立即实施该组织2024年11月发布的《人工智能伦理问题建议书》。 7月,联合国召开首届人形机器人与人类出席的新闻发布会,9台人形机器人接受了与会专家和各界领导的提问举办“AI for Good”全球峰会,探讨人工智能的未来发展和治理框架;安全理事会就人工智能对国际和平与安全的潜在威胁举行了首次公开辩论。 10月,联合国秘书长安东尼奥·古特雷斯宣布成立人工智能高级别咨询机构,来自世界各地的39位专家将共同探讨人工智能技术的风险和机遇,为加强国际社会治理提供支持。 可以看出,联合国已将人工智能伦理纳入全球治理议程,未来将推动形成更加正式、更具约束力的组织和治理规范。

欧盟已经为人工智能专门立法,以全面监管该技术。 欧盟委员会 2021 年对拟议的《人工智能法案》的谈判授权草案严格禁止“对人类安全构成不可接受风险的人工智能系统”,要求人工智能公司保持对算法的控制,提供技术文档,并建立风险管理系统。 经过马拉松式的谈判,欧洲议会、欧盟成员国和欧盟委员会于2024年12月8日就《人工智能法案》达成协议,该法案成为全球首个人工智能领域的综合性法规。

美国已经出台了监管政策,但立法进程缓慢。 与欧盟相比,美国的监管要求较少,主要强调安全原则,鼓励企业自律。 2023 年 1 月,美国国家标准与技术研究院 (NIST) 正式公布了 AI 风险管理框架,旨在指导组织在开发和部署 AI 系统时降低安全风险,但该文件是非强制性指导文件。 10月,拜登签署了迄今为止最全面的美国.AI监管原则,即《关于安全、可靠和可信开发和使用人工智能的行政命令》,该命令超出了OpenAI、谷歌和Meta等公司今年早些时候做出的自愿承诺,但仍然缺乏执法效力。 拜登敦促国会在行政命令发布后尽快提出相关立法。 参议院多数党领袖查克·舒默(Chuck Schumer)在9月和10月举办了两场人工智能洞察论坛,以收集行业建议,并预计人工智能立法将在几个月内准备就绪,但这些法案未来是否会顺利通过还有待观察。

英国正在人工智能治理外交上投入更多资源。 2024年11月,首届全球人工智能安全峰会在英国布莱切利公园举行。 来自美国、英国、欧盟、中国、印度等各方的代表出席了会议。 会议最终通过了《布莱切利宣言》,强调人工智能的许多风险本质上是国际性的,因此“最好通过国际合作来解决”。 与会者同意共同努力,创建一个“国际包容性”的前沿人工智能安全科学研究网络,以加深对尚未完全了解的人工智能风险和能力的理解。 英国为主办此次峰会做了大量的准备和外交斡旋,旨在将自己打造成全球人工智能治理的“召集人”。 未来,越来越多的国家将投入更多资源用于人工智能治理外交,争夺这一新兴领域的话语权。

中国高度重视人工智能治理问题,治理理念注重发展与安全的平衡。 2024年4月,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》。 《生成式人工智能服务管理暂行办法》于7月正式发布,从技术开发治理、服务规范、监督检查、法律责任等方面对生成式人工智能进行了具体规定,并于8月15日施行,成为全球首部生成式人工智能专项立法。 同时,中国在年内还出台了一系列关于深度合成和算法的规定,如1月施行的《互联网信息服务深度合成管理规定》和1月施行的《互联网信息服务算法推荐管理规定》。 10月,中国提出全球人工智能治理倡议,就个人隐私和数据保护、数据采集、算法设计、技术开发、风险等级测试和评估以及道德准则等提出具体原则、指南或建议。

为什么美国很慢。

与美国在人工智能技术应用层面的发展速度相比,美国在人工智能监管政策和立法上行动缓慢,这是多重因素共同作用的结果。

首先,美国不愿放弃其人工智能优势。

美国和战略界普遍认为,人工智能是决定美国能否赢得下一轮全球技术竞争的战略技术之一。 自奥巴马时代以来,美国**提出了一系列相关的国家计划和愿景。 特朗普和拜登的人工智能行政命令都强调保持“美国.AI领导地位”是美国治理人工智能的基本目标。 美国更不愿意严格限制其技术的发展,直到它绝对领先于曲线。 ChatGPT普及后,美国出台了相关监管政策,其目标不仅是应对治理风险,更是防止技术快速扩散,削弱美国的领先优势。

其次,人工智能伦理问题在美国被政治化,两党难以调和分歧,在治理上达成共识。

近年来,美国政治两极分化加剧,两党在几乎所有社会问题上都存在分歧,尤其是在与人们生活方式相关的人工智能伦理问题上。 在议题方面,民主党更关注个人隐私、算法歧视、算法正义等与多样性相关的议题共和党更关注人工智能犯罪等安全问题。 在风险防范方面,民主党认为,人工智能造假造谣的应用风险最为突出,需要加强社交网络等中间沟通渠道的责任另一方面,共和党人认为,这种治理措施是出于政治动机,对共和党候选人有害。 受2024**影响,两党矛盾纠纷愈发尖锐,立法进度明显滞后于形势发展。 从拜登**在2024年底陆续推出的一系列人工智能治理政策文件可以看出,民主党有意率先打破僵局,将人工智能治理作为潜在的竞选议题,并加快该议题的立法进程。

最后,美国在监管人工智能方面也面临一些制度障碍。

美国政治传统中所谓的“自由第一”和“个人第一”,不利于控制权力下放、风险分散以及技术和应用的快速扩散。 这种传统往往会造成各州之间的监管差距,也使得利用行政资源根除非法利益链变得困难。 枪支和毒品犯罪的泛滥都与枪支和毒品犯罪的泛滥有关,危险的人工智能应用也可能成为美国的下一个社会风险。

这种犹豫可能导致全球人工智能“军备竞赛”的风险增加。 作为全球人工智能技术研发的领先国家,美国有义务成为全球推广人工智能相关监管措施的最早参与者,但美国尚未形成监管立法,在全球范围内推动人工智能治理的议程也有所放缓,这将导致越来越多的国家无视控制,盲目追求技术领先, 然后加入算法“军备竞赛”。这种竞争可能会逐渐偏离人工智能健康有序的发展方向,这无疑会给后续的全球立法和治理带来更多障碍,也增加了各国围绕人工智能发生恶性竞争事件的风险。

李铮:中国现代国际关系研究院美国研究所助理所长张岚树,中国现代国际关系研究院美国研究所助理研究员

《展望》,2024年第52期)。

相似文章

    人工智能伦理探讨了人工智能的伦理挑战和伦理问题

    简介 人工智能 AI 正逐渐成为我们生活中不可或缺的一部分,为我们提供了许多便利和创新。然而,随着人工智能技术的快速发展,也引发了一系列与道德伦理相关的问题。一 人工智能伦理的概念。人工智能伦理学是一门研究人工智能技术和应用中与道德和伦理相关的问题的学科。它旨在 人工智能对社会 个人和环境的影响,并...

    欧洲已就世界上第一个全面的人工智能规则达成协议

    研究人员警告说,强大的人工智能模型可用于增强网络虚假信息 网络攻击或生物 的创建。欧盟谈判代表周五就世界上第一个全面的人工智能规则达成协议,为对人工智能技术的法律监督铺平了道路,该技术有望改变日常生活,并发出人类面临生存危险的警告。来自欧洲议会和欧盟个成员国的谈判代表克服了在生成式人工智能和使用面部...

    人工智能时代:对家庭伦理和道德的挑战

    随着科学技术的发展,人工智能逐渐成为人们关注的焦点。特别是在家庭领域,人工智能的出现引发了人们对未来家庭概念的冲击和挑战。本文以科技热点为导向,人工智能对传统家庭观念的影响与挑战。.人工智能对家庭观念的影响。人工智能能进入家庭吗?寻找AI作家程序 随着人工智能的发展,人工智能正逐渐进入家庭领域。例如...

    人工智能在工作领域面临挑战

    在瑞士日内瓦举行的 人类人工智能全球峰会 上,参与者是机器狗。新华社记者连毅摄。德勤近日发布 年数字消费趋势 研究报告,揭示了包括比利时在内的全球至岁消费者在日常生活中使用人工智能 AI 技术的普遍程度。调查显示,人工智能在个人生活中占有一席之地,但它在工作领域面临很多挑战。研究表明,在比利时,大约...

    大数据和人工智能中的伦理问题

    人工智能和大数据。随着人工智能技术的发展,人工智能系统对我们日常生活的影响无处不在。科学家开发人工智能技术和系统不仅是为了解决功能或技术问题,也是为了更好地帮助人类。然而,任何技术都有两面性,人工智能技术也不例外。我们如何才能实现造福人类的目标,而不是滥用甚至危害人类?作为人工智能技术的开发者,只有...