近年来,人工智能技术在许多领域取得了重大突破,其发展速度和影响力空前,给现代生活带来了极大的便利,但也留下了一些可能危及人类生存的重大风险。 如何充分享受科技发展带来的巨大红利,同时有效防范其潜在风险,已成为人工智能发展面临的一个关键问题。 为此,我国先后颁布了《新一代人工智能治理原则——发展负责任的人工智能》(2019年)、《新一代人工智能伦理标准》(2021年)、《关于加强科技伦理治理的意见》(2022年)和《科技伦理审查办法(试行)(2023年)》等。 试图通过人工智能与伦理的有机结合,引导人工智能走上“科技向善”的健康发展道路。人工智能与伦理的有机结合可以从三个维度进行:伦理防御、伦理治理和伦理创新。
人工智能的发展需要理性的道德理由。
在进入现实生活之前,人工智能作为“机器人”活跃在文学中。 无论是在舞台剧、科幻**还是科幻电影中,人工智能都被赋予了一种异化属性,这种属性是由人类创造的,但反过来又会伤害他们。 这种妖魔化人工智能的文学想象,反映了人类对人工智能的深深焦虑。 究其原因,AI可能比人类拥有更大的力量,并且存在着反过来伤害人类的巨大风险。 现实生活中,人工智能Alpha Dog击败世界围棋冠军,工业机器人抢占人类劳动岗位,大型语言模型不断产生与人类专家相媲美的行业作品,进一步加剧了人类对人工智能的担忧,甚至引发了一些对人工智能的抵制。 过度的忧虑和盲目的抗拒,可能会阻碍人工智能的正常发展,影响人类充分享受现代科技进步带来的便利。 为了解决这些不必要的问题,需要对人工智能进行合理的伦理辩护,以建立人工智能的伦理合理性。
人工智能的伦理合法性在于它能够造福人类,提高劳动生产率,为人类创造幸福生活。 与其他科技产品相比,人工智能具有非常独特的功能,它可以模拟人类智能,不仅可以进行智能计算,还可以完成智能动作,它的一些物理能力(如力量和速度)和智力(如记忆和计算)甚至可以远远超过人类。 模拟意味着替代,而人工智能可以模拟的人类活动有可能被替代。 因此,人工智能可以作为人类劳动的助手或替代品,广泛进入生产生活的各个领域,不仅可以节省大量的劳动时间,为人类提供更多的空闲时间,还可以创造更高的劳动效率,为人类提供丰富的劳动产品和便捷的社会服务。 简而言之,提高劳动生产率以造福人类的能力是人工智能伦理合法性的现实基础。
然而,可能性并不意味着现实,人工智能能否实现自己的伦理合法性并不取决于人工智能本身,而是取决于人工智能的现实发展是否真正指向其合法目的。 人工智能具有实现有目的的发展和提高人类幸福感的潜力。 也有可能走上异化发展的道路,损害人类的根本利益。 如果我们只看到人工智能的进步,以超人类主义的态度欢呼“超级智能”,要求人工智能技术的无节制发展,就有可能危及整个人类的生存和发展。 相反,如果我们只看到人工智能的危险,坚持拒绝“技术怪物”的反智主义,要求严格禁止人工智能技术的发展,可能会导致人类科技创新停滞不前。 因此,理性的伦理辩护应该是辩证的,既要看到人工智能的适用性,又要欢迎人工智能发展创造的人类福祉; 也要看到人工智能的盲目性,警惕人工智能可能带来的潜在风险。
人工智能的发展需要有效的伦理治理。
人工智能是人类创造并服务于人类的技术事物,它具有强大的技术力量,但不一定服务于人类。 人工智能既可以造福人类,也可以伤害人类,就像无人轰炸机既可以阻止战争又可以杀死平民一样。 据可预见,人工智能有可能引起四种主要类型的问题。 首先是安全问题,即人工智能的力量既可以改善人类生活,又可以危及社会发展和人类安全。 二是正义问题,即人工智能虽然可以提供丰富的财富和便捷的服务,但也有可能加剧分配不公、群体歧视等社会正义问题。 三是人类发展问题,即人工智能替代人类劳动和人类能力的延伸和增强,这可能会阻碍人类能力的全面发展。 四是自由自主问题,即人工智能取代了人类的决策和行动,不仅减轻了人类的负担,也压缩了人类自由自主的空间。 为了防范这些风险,人工智能必须受到严格的监管和约束,使其符合人类现有的伦理规范、道德观念和价值取向。
人工智能的伦理治理是确保人工智能技术被开发和用于实现服务人类的根本目的,从而实现人类利益的最大化。 换言之,人工智能的发展必须以人类的根本利益为中心,必须以人类现有的伦理规范和价值取向为基础。 没有这个中心和标准,人工智能的发展可能会误入歧途。 人类基本价值观共识主要包括三个方面:一是尊重个人的安全和自由发展,二是追求人与人之间的公平、正义、仁慈和友谊,三是强调群体的和平、稳定、繁荣与发展。 人工智能的伦理治理,就是要使人工智能的发展服从于人类公认的伦理规范,促进人类基本价值的广泛实现。
人工智能伦理治理的关键在于人工智能背后的人,而不是人工智能本身。 无论人工智能多么强大,它本质上仍然只是一个技术对象,一个由人类创造和控制的技术对象。 人工智能的自主智能能力不是自然产生的,它们能拥有什么样的能力,能拥有多少,是由人类决定的,而不是人工智能。 从造物主与受造物的责任关系来看,人类必须对自己的创造负责,对人工智能的功能负责,对人工智能带来的一切后果负责。 换言之,伦理治理需要坚持核心思想,即人工智能引发的社会问题首先是“人”的问题,而不是“物”的问题。 开展人工智能伦理治理,首先要增强人工智能相关人员的责任意识。
人工智能的有效伦理治理既需要强调自由放任的技术至上主义思想,也需要追求私人利益的技术中立主义思想。 让人工智能不受任何限制地自由发展,可能会导致人工智能走上盲目发展的道路,导致人造物奴役人类的异化局面。 将人工智能从属于个人利益和私人意志,可能导致人工智能的发展道路片面化,导致人工智能成为一些人的盈利工具。 一个真正合乎道德和负责任的人工智能只能是为整个人类的利益而努力的人工智能。
人工智能的发展需要健全的道德创新。
人工智能的出现将在一定程度上改变人类的道德生活,冲击现有的道德观念。 一方面,人工智能作为超算软件与非生物硬件的结合,不同于人类具有生物体的理性存在,也不同于具有感官能力的动物的非理性存在。 一旦进入道德世界,这种新型存在具有什么样的道德意义,它应该享有什么样的道德地位,这是现有伦理理论没有遇到过的新问题,需要认真思考。 另一方面,人工智能全面进入生产生活领域,必然会影响现有的劳动模式和沟通方式,甚至形成一些具有新伦理性质的社会关系。 一旦这些变化超出了现有伦理理论的范围,就需要创新和发展伦理理论,以提供合理的解释。 从这个意义上说,为了充分理解人工智能的道德意义,合理应对人工智能带来的伦理变化,有必要进行一定的伦理创新,发展与人工智能相适应的伦理理论和道德观念。
基于人工智能发展的伦理创新,首先需要基于人工智能的独特技术。 人工智能不同于其他人造技术对象,它具有一定的智能性和自主性。 虽然AI没有自己的自由意志,只能利用设计者、生产者、用户等人类的意志作为自己的意志,但在许多人类意志的控制下,AI仍然有一个相对狭窄的选择空间,需要做出自主的行为选择。 这种相对狭窄的自主选择空间和相对薄弱的自主选择能力,可能赋予人工智能行动一定的道德意义。 因此,人工智能是否可以被视为一个道德主体,是否需要承担一定的道德责任,是否能享有一定的道德权利,已经开始成为一个严肃的问题,这可能指向一个真正向人工智能开放的伦理理论。 同时,这意味着我们需要以人工智能为新的参照物,对现有的道德主体、道德责任、道德行为、道德评价、道德奖惩等理论进行反思,从而将人类对道德本身的理解推向一个新的高度,从而真正把握人工智能的道德意义。
基于AI发展的伦理创新,也需要面对AI带来的生活变化。 人工智能的广泛应用有可能以三种方式改变人类生活。 首先,人工智能可以作为人体器官的替代品或增强剂,以改善人类的生活。 这从一个新的角度重新提出了人类特质的问题:面对人工智能,人类的素质究竟是什么? 人类在生命能力增强后能否获得自我认同? 其次,人工智能可以作为人类劳动的替代或助手,推动机器劳动大规模替代人类劳动,从一个新的视角重新提出劳动本质的问题:劳动对人类的真正意义是什么? 自动化机器生产的劳动产品应该如何分配? 第三,人工智能大规模进入生产生活领域,与人类形成了各种错综复杂的关系,这就提出了一个新的人机关系问题:人类应该如何看待和处理与人工智能的关系? 要回答这些问题,有必要对既有的伦理学理论进行重新思考,或许将伦理学理论的根源从现有的人机关系延伸到新兴的人机关系。
基于人工智能发展的伦理创新应该警惕理论僵化和理论机会主义。 理论僵化主义者完全固守现有的伦理理论,看不到人工智能带来的发展机遇,不愿做出任何实质性的理论改变。 这可能导致伦理理论与实践发展脱节,进而削弱伦理理论指导人工智能实践发展的功能。 理论机会主义者完全无视现有的道德原则,抛弃人类长期以来所珍视的基本价值,只遵循实际发展的实际需要。 这可能导致伦理学理论价值基础的丧失,也会削弱伦理学理论指导实践发展的功能。 合理的伦理创新必须坚持人类基本价值观的共识,并根据人工智能的实际发展,不断创造能够理解、包容和引导人工智能发展的新伦理理论。
无论是从人工智能的健康发展还是人类社会的持续发展来看,人工智能都必须与伦理相结合。 没有理性的伦理理由,人类很难对人工智能的发展保持正确的态度。 如果没有有效的伦理治理,人类就很难理性地引导人工智能的强大力量。 没有健全的伦理创新,人类就很难跟上人工智能发展的步伐。 只有将伦理防御、伦理治理与伦理创新相结合,才能真正保障人工智能向善向上发展,形成科技健康发展和社会可持续发展的双赢局面。
李志祥,南京师范大学公共管理学院教授