译者:闫静。
在过去的几年里,由于深度伪造的出现,数字领域中现实与虚拟之间的界限已经慢慢但肯定地变得模糊。
复杂的、人工智能驱动的合成媒体**已经从好莱坞的新概念演变成一种实用工具,被出于政治动机的威胁行为者和网络犯罪分子用来合成虚假信息和实施欺诈。
如今,随着人工智能能力的增强,深度伪造和合成的威胁也在增长。 我们对在线信息真实性的信任从未如此低调或脆弱。
在本文中,我们将深入探讨我们今天所看到的深度伪造世界,探索它们的性质、风险、现实生活中的影响,以及应对这些高级威胁所需的条件。
Deepfakes通常是人为创建的,音频旨在显示人们参与的从未发生过的事件或行为。 它们利用复杂的人工智能 (AI) 和机器学习 (ML) 技术,特别是生成对抗网络 (GAN)。
GaN 涉及两个 AI 模型:一个生成内容(生成器),另一个评估其真实性(鉴别器)。 生成器生成越来越逼真的假**或假音频,而鉴别器不断评估内容的真实性,从而迅速提高生成的假**的质量和可信度。
最初,深度伪造在娱乐和社交领域占有一席之地,提供了新颖的内容创作方式,例如将名人的脸叠加在**中的不同身体上,或实现逼真的声音模仿。 然而,这项技术创造高度令人信服的假货的潜力迅速从单纯的新奇事物转变为虚假信息和操纵的强大工具。
从政治虚假信息到金融欺诈,深度伪造的后果是深远和多方面的。 下面,我们将通过一些关键示例来了解这些风险的广度和深度。
政治虚假信息
深度伪造通过传播虚假陈述和操纵公众**,对政治稳定构成重大风险,尤其是当它们被用来制造关于政客的误导性陈述时。 第一个备受瞩目的例子发生在 2018 年,当时 Buzzfeed 发布了奥巴马的深度伪造。
从那时起,许多其他案件都是**; 乌克兰人沃洛德米尔·泽伦斯基 (Volodymyr Zelensky) 的深度伪造,错误地将他描绘成承认失败并敦促乌克兰人向俄罗斯投降,旨在误导和挫败公众士气。 最终,由于发现泽连斯基头部与体型不匹配等不一致之处,**被认定为假**。
商业间谍活动
在行业中,深度伪造已成为实施欺诈的有效工具,有可能造成巨大的经济损失。 这在冒充高级管理人员时尤其有效。 一家英国能源公司损失了22万欧元,原因是人工智能软件被用来模仿该公司德国母公司首席执行官的声音,并指示英国首席执行官紧急转移资金。
个人身份盗窃和骚扰
当虚假**被用于身份盗窃和骚扰时,个人权利和隐私非常容易受到攻击。 恶意**的产生可能比我们想象的要严重得多。 在德国,人们对深度伪造的威胁非常关注,以至于已经发起了一场广告活动,以强调这些危险,并警告父母与这些技术相关的风险。
操纵金融市场
除了对个人或组织造成伤害外,深度伪造还可以通过虚假陈述影响投资者决策和市场情绪,从而扰乱整个金融市场。 一个例子是深度伪造,攻击者描述了五角大楼附近短暂影响美国的假设事件。
滥用法律和司法
在法律领域,深度伪造可用于伪造证据,这可能导致司法不公并破坏司法程序的完整性。 虽然在法律环境中还没有具体和广泛的例子,但以这种方式使用深度伪造的可能性引起了人们对法庭上视听证据的可靠性以及加强核查措施以确保正义的必要性的担忧。
与任何工具一样,人工智能可以用于好事和坏事。 目前,该行业正在努力开发人工智能驱动的方法来检测和打击深度伪造威胁。 这项工作的大部分集中在分析面部表情和语音生物特征,以发现人眼和耳朵无法察觉的细微异常。 这涉及使用机器学习模型,并在包含真实和操纵**的各种数据集上训练它们,以便有效地区分两者。
通常与加密货币相关的区块链技术也正在成为这场斗争中的有用工具。 区块链提供了一种验证文件的真实性和真实性并确认它们没有被更改的方法。 所谓的“智能合约”既可以用来验证数字内容的真实性,也可以用来跟踪它如何与其他对象交互,包括任何修改。 结合可以标记*内容真实性的人工智能,智能合约可以触发审查过程或提醒相关当局或利益相关者。
此外,该行业正在开发其他工具,以确保人工智能平台创建的内容可以被检测为人造内容。 例如,谷歌的合成器可以在人工智能生成的音频内容中嵌入听不见的“水印”。 像 synthad 这样的方法旨在确保 AI 工具生成的内容即使在被人类或其他编辑软件操纵后仍能可靠地检测为人工生成的内容。
与网络安全的其他领域一样,教育和宣传活动在打击深度伪造威胁方面发挥着重要作用。 对个人和组织进行深度伪造、如何发现它们及其潜在影响的教育至关重要。 未来几年,科技公司、网络安全专家、**机构和教育机构之间的合作将变得至关重要,因为我们正在努力制定更全面的战略,以打击用于不良目的的人工生成内容。
随着深度伪造带来的威胁形势不断演变,采取策略来减轻与滥用人工智能技术相关的风险变得越来越重要。 以下最佳实践可以帮助组织和个人提高对与深度伪造相关的安全威胁的认识。
提高认识和培训
教育是防止深度伪造的基石。 定期对员工进行识别深度伪造的培训可以显着降低被欺骗的风险。 该培训应侧重于合成的微妙之处**,并及时了解深度伪造技术的最新发展。
在组织内培养一种验证文化,通过多种渠道对任何异常或可疑的通信(尤其是涉及敏感信息的通信)进行交叉检查。
实施稳健的验证流程
对于关键通信,特别是在金融和法律环境中,实施多因素身份验证和严格的验证流程至关重要。 例如,对于高风险交易或敏感信息共享,语音和**呼叫确认可能是有效的。 这种做法可以防止类似于前面提到的首席执行官为欺诈活动伪造声音的情况。
利用先进的网络安全解决方案
我们可以通过将先进的网络安全解决方案与深度伪造检测功能相结合,利用人工智能来击败人工智能。 使用人工智能和机器学习来分析和标记潜在深度伪造的工具增加了重要的安全层。
定期软件和安全更新
维护最新的软件(包括安全解决方案)对网络安全至关重要。 更新通常包含针对新发现的漏洞的补丁,这些漏洞可能被深度伪造和其他网络威胁所利用。 主动软件更新可以显著降低安全漏洞的可能性。
与外部专家合作
对于内部网络安全能力有限的组织,与外部安全专家合作可以提供增强的保护。 这些专业人员可以提供有关最新威胁的信息,并协助制定专门针对深度伪造和其他新兴网络风险的策略。
个人警觉
作为个人,我们在与**互动时都必须保持警惕,这包括对耸人听闻或有争议的内容保持一定程度的怀疑,在分享或采取行动之前进行验证。
利用可以帮助检测深度伪造的工具和浏览器扩展也有助于加强个人网络安全实践。
还值得注意的是,与任何其他创作一样,深度伪造的质量可能会因创作者的能力和对细节的关注而异。 这意味着在某些情况下,仍然可以发现不太先进或复杂的深度伪造。 在识别过程中需要特别注意的事项包括:
不自然的眼球运动:AI 生成的图像或**可能无法准确复制复杂和自然的眼球运动。 这种差异可能表现为不寻常的眨眼模式或缺乏自然的眼球运动。
音频** 同步问题:某些深度伪造可能无法同步语音和嘴唇动作,从而导致明显的差异。
颜色和阴影不一致:AI 通常不能一致地渲染颜色和阴影,尤其是在不同的照明条件下。 请注意肤色或背景颜色的不一致,阴影可能会错位。
不寻常的身体运动:人工智能也可能难以保持体型的一致性,导致明显的扭曲或不规则。 这可能包括突然的、不自然的动作或表情,这些动作或表情与一个人的平时动作或反应不一致。
简而言之,打击深度伪造需要多方面的方法,将教育、强大的验证流程、先进技术、软件维护、专家协作和个人警惕相结合。 这些做法是应对网络安全领域日益复杂的深度伪造的综合战略的一部分。 此外,它们将有助于防御其他类型的网络安全威胁,鼓励个人和组织在当今以数字为中心的世界中所需的安全思维。
潘多拉魔盒已经打开,我们不能指望深度伪造会消失。 相反,随着深度伪造变得越来越普遍和微妙,我们将需要制定有效的应对措施,并在某些关键领域取得突破。
除了继续开发先进的身份验证工具外,包括 OpenAI 等 AI 开发人员和网络安全公司在内的行业领导者还需要引领 AI 技术的开发和应用,以建立道德准则并确保对 deepfake 威胁的强大防御。
此外,还需要制定新的立法和法规来禁止和惩罚出于有害目的创建和分发深度伪造。 由于数字**的跨国性质,还需要在法律框架内开展国际合作,以有效打击深度伪造。
正如我们上面提到的,教育公众了解深度伪造意识和素养是应对此类威胁不可或缺的一部分。 在一场涉及各种网络表面的战斗中,可以传播错误信息,仅靠技术和监管是无法取胜的。 深度伪造不可避免的扩散需要一种多维的防御方法,将技术创新、道德行业实践、明智的立法措施和公共教育结合起来。