我们已经进入了人工智能时代,人工智能是未来新一轮科技革命和产业变革的核心力量,生成式人工智能是以数以亿计的海量数据为参数,具有更好的生成能力,其应用范围广,具有惊人的应用价值。 生成式人工智能发展带来的最大挑战是侵权风险。 与传统侵权不同,ChatGPT引发的侵权主要是对人格权和著作权的侵犯。 例如,ChatGPT问世后,有人用它来生成受版权保护的图书的缩写版本,以帮助他人快速阅读书籍,因为这种行为会构成对原著的市场替代,很难构成合理使用,因此可能会被认定为侵犯版权。 同时,生成式人工智能也可能侵犯商标权。 如果您擅自在生成**中使用他人商标,并将其用作某种广告或产品装饰,造成消费者的混淆,则可能构成对商标权的侵犯。
然而,与侵犯知识产权相比,生成式AI由于可能产生虚假信息等原因,具有更大的人格权侵权风险。 具体而言,生成式人工智能不仅会导致各类人格权的侵权,还会带来新的人格权侵权形式,主要表现在以下四个方面。
首先,它侵犯了隐私和个人信息。 生成式人工智能可能导致大规模的隐私或个人信息泄露。 大规模生成式AI需要大量的数据作为参数,而AI产品的提供者在训练AI产品时违规收集了大量个人信息,或者使用大量不合法的信息**来训练AI产品,这可能会带来一些新的隐私和个人信息侵权形式。 有研究发现,由于大模型收集了大量的个人信息和隐私,而模型越大,收集的信息和隐私就越多,因此,犯罪分子有可能通过攻击大规模语言模型,从训练数据中提取核心隐私和敏感个人信息,导致个人信息和隐私的大规模泄露, 形成“大规模微侵权”现象。
二是侵犯名誉权。 大规模生成式AI模型主要依靠消化人类文本输入来生成输出产品,如文本、图像、音频、**等,一旦这些输出信息是虚假的,就可能导致侵犯他人的名誉权。 ChatGPT还将带来一些新的名誉权侵权形式。 OpenAI首席执行官Sam Altman在接受采访时表示,“我特别担心这些AI被用于大规模制造虚假信息。 例如,ChatGPT等生成式人工智能的“捏造”,可能导致ChatGPT在回答问题时捏造涉嫌性骚扰他人或他人非法同居的信息,从而损害他人的声誉。 还可以自动生成虚假、音频、**,不仅可以“假真”,还可以“无中生有”,导致他人名誉、隐私等人格权益受到侵犯,生成式AI自动生成的包含虚假信息的**和声音已经到了既假又真的地步, 甚至生成式AI也很难区分生成的**是真实的还是自动生成的。如果不法行为人利用虚假信息生成后传播虚假信息,受众很容易受到虚假信息的影响,严重侵害他人的名誉和其他人格权益。
第三,侵犯肖像权。 由于生成式 AI 可以自动生成**,因此随着生成式 AI 的发展,它比深度伪造更难辨别。 因此,生成式人工智能自动生成的图像比深度伪造造成的损害更为严重,不仅会侵犯个人的肖像权,甚至可能通过**扭曲个人的形象,尤其是当生成的**涉嫌性骚扰、**非法同居等虚假信息时,会造成严重侵犯他人权益, 例如声誉和隐私。
第四,侵犯死者人格利益。 生成式人工智能技术超越了深度伪造,将死者的图像和声音结合在一起,以生成虚假信息。 例如,在自然人死亡后,他人可以使用ChatGPT生成死者风格的文本,用于生成一些歧视、偏见、仇恨言论或其他有害言论,这实际上构成了对死者人格尊严的侵犯。 再比如,侵权人还可以利用生成式AI模仿死者的语气,与死者近亲属进行交流,实施侵权,这也可能导致对死者人格利益的侵犯。
随着生成式人工智能的应用越来越广泛,由此产生的侵权风险必须在法律上得到解决。 但是,面对生成式人工智能等新技术带来的问题,民法首先要秉持鼓励创新、防范风险的价值取向。 一方面,人工智能服务提供者不应因为存在侵权风险而承担过分的责任,从而阻碍人工智能技术的创新。 另一方面,还应要求服务提供商尽可能采取必要措施(例如,明确识别人工智能生成的信息),以防止伤害的发生和放大。 侵权行为发生后,除个人信息大规模泄露外,服务提供者仍应承担过错责任,从而兼顾服务提供者、用户等各方的利益,公平确定责任承担。
作者:王黎明;现任中国大学法学院教授、中国大学民商事法律科学研究中心研究员。