防止“AI换脸”骗局 您需要的所有知识都在这里

小夏 科技 更新 2024-02-26

近年来,随着人工智能技术的进步,一些犯罪分子开始利用人工智能技术,将他人的面孔和声音融合在一起,创造出非常逼真的合成图像,进行新型网络诈骗,往往在短时间内给受害者造成巨大损失。 我们怎么能看到这种AI“深度伪造”? 有什么好的方法可以识别“AI换脸”吗? 我们先来看看最近发生在陕西省习的一起“AI换脸”诈骗案。

陕西省习的财务官员张女士与老板**交谈,老板让她将186万元转入指定账户。

受害人张女士:老板让我赶紧转这笔钱,我对这笔钱很着急,因为他的声音和**形象看起来和别人一样,所以我更相信这笔钱是他所说的,然后我就直接转了这笔钱。

转账后,张女士按照规定将电子凭证发给了公司财务内部群,没想到群里的老板看到了信息,问她资金的来源?

受害人张女士:然后我们打了**,然后跟老板核实了一下,老板说没给我发**,然后就没说转账的事情。

意识到自己被骗的张女士急忙报警求助,并立即联系反诈中心和相关银行进行紧急停顿付款,最终挽救了大部分被骗资金156万元。

人工智能“多人换脸”骗局骗取港币2亿元。

超过100万的现金,对于大多数人来说都是一笔巨款,好在第一次处理损失,挽回了大部分损失,我们再来看看另一个案例,这个案子“变脸”的技术难度更高,涉及的金额也更大。 近日,香港**还披露了一起AI多人换脸诈骗案,涉案金额高达2亿港元。

在本案中,某跨国公司香港分公司的一名员工应邀参加由总公司首席财务官发起的多人会议。 按照要求,他多次将2亿港元转入5个当地银行账户,然后与总部核实,得知自己被骗了。 **调查获悉,本案中,在所谓的**会议中,只有一名受害者是“真人”,其余所谓的参与者都是AI换脸后的欺诈者。

看完这两个案例,你一定有点好奇,AI换脸背后的技术原理是什么? 在技术层面,如何实现对人脸的精准识别和替换,打造逼真的效果? 让我们听听专家的意见。

如何在技术上实现准确的人脸识别和替换。

中国网络空间安全协会人工智能安全治理委员会专家薛芝志:AI换脸过程主要包括人脸识别与跟踪、人脸特征提取、人脸变换与融合、背景环境渲染、影音合成等几个关键步骤。 其背后的核心由三部分组成,首先,利用深度学习算法准确识别**中的人脸图像,并提取眼睛、鼻子、嘴巴等关键面部特征。 其次,将这些特征与目标人脸图像进行匹配、替换和融合; 最后,渲染背景环境并添加合成声音,以生成高度逼真的假脸交换**。

快速的AI“换脸”只需一个**即可完成。

为了了解AI换脸能有多逼真,记者与专业技术人员合作,深度体验了AI换脸技术。

技术人员先是用手机**拍下了记者的脸部照片,导入AI人工智能软件后,记者惊讶地发现,电脑摄像头前的技术人员虽然是技术人员,但输出的确实是记者的**,几乎可以说是“一键换脸”, 不需要复杂的环境和解压缩操作。

更令人惊讶的是,随着技术人员面部表情的变化,**上记者的脸也随之变化。

记者:为什么技师的脸会动,我的**也会随之动?

中国网络空间安全协会人工智能安全治理专委会专家薛志志:首先,通过采集**,可以对**中的人脸进行人脸追踪,在定位后的第二步,他可以对一张脸的人脸特征进行采集和提取,主要包括这些与嘴巴相关的明显人脸特征, 鼻子和眼睛。收集完毕后,第三步就是拿着这个原件**,做一个改造、融合和塑形。

记者:通过这个**还能做些什么?

中国网络空间安全协会人工智能安全治理专委会专家薛芝志:目前,通过这个**技术人员,这个**已经能够移动和生活了,如果这个**进一步保存下来,可以存储大量的**。 稍后,您可以将其合成一个简短的 **版本**。

人工智能人脸检测技术主要通过深度学习算法实现,可以识别面部特征并对其进行准确分析。 可以从**或**中提取一个人的面部表情,并将它们与另一个人的面部特征相匹配。 专家告诉记者,如果想在进行实时通话时实现人工智能AI换脸技术的使用,一个是远远不够的,需要从不同角度收集近1000张照片。

中国网络空间安全协会人工智能安全治理专委会专家薛芝志:想要实时点对点通信,就需要多收集**,深度学习算法模型训练完成后,训练后将模型倒入我们的**中,可以进行实时的更改和转换。 在这种情况下,您可以实时更改您的脸部。 语音通信也是可能的,我们需要提前收集到目标群体中的一些声音,然后训练模型来恢复目标群体的声音。

人工智能的生成量极高,难度极高,成本高昂。

据专家介绍,以欺诈为目的,点对点通话的实施需要AI人工智能产生非常高的程度。 要达到假真造假的效果并不容易。

中国计算机学会安全专业委员会数字经济与安全工作组成员方宇:对于诈骗,其实主要是通过点对点通话,这个时候,如果你用换脸技术和语音合成来做实时换脸诈骗,如果想完成这些技术操作, 您需要投资于强大的技术支持。

中国网信安全协会人工智能安全治理专委会专家薛芝志:这背后需要大量的资金投入,包括收集最好的产品,包括专业算法的人员等等,这需要一个很长的周期,包括一些计算算法。 投资的各个环节都需要长时间的不断迭代和操作,才能达到相当现实的效果,才有可能达到欺诈的实际效果。

目前,AI“换脸”在娱乐**录制中应用较多。

除了一些不法分子试图利用AI技术进行诈骗之外,其实近年来,AI技术更多地被用于二次创作短**,这是娱乐性质的,网络上出现越来越多的明星AI换脸**,不少网友感叹,这种**“嘴型, 手势很匹配,很自然,我差点以为这是真的。 ”

例如,这款软件,在拍下记者的脸部**后,可以在几秒钟内记录并生成记者成为赛车手的视频**。

中国计算机学会安全专业委员会数字经济与安全工作组成员方宇:目前,AI技术主要用于改变短**的面貌,通过做一些特定的动作、跳舞等。 这些**其实似乎有点不自然,而且也是纯粹的娱乐性变脸。

记者发现,在手机应用**中,有几十款换脸软件,可以达到换脸的目的。

中国网络空间安全协会人工智能安全治理委员会专家薛志志:如果从娱乐大众的角度来看,市面上有很多这样的软件和工具,可以达到AI换脸的效果,但**度只有六七分, 公众可以直接看到它。但是如果你想生成一个骗局来说话,你必须产生这种点对点,我们有很高的程度。

人工智能技术的“换脸换嗓子”可能存在法律风险。

然而,AI技术也是一把“双刃剑”,即使是为了娱乐而利用AI变脸变声,也存在法律风险。 法律专家表示,利用人工智能技术改变他人的面貌和声音,甚至将其翻译成其他语言并发布**,都可能涉嫌侵权,主要表现在三个方面:

首先,涉嫌侵犯著作权,例如相声和素描,这些都是受中华人民共和国著作权法保护的“作品”。 例如,网民使用AI软件将相声、小品等“翻译”成其他语言,需要得到版权所有者的授权,否则会出现侵权问题。

根据《中华人民共和国民法典》规定,任何组织或者个人不得利用信息技术污损、污损、伪造等手段侵犯他人肖像权。 未经肖像权人同意,不得制作、使用、公开肖像权人肖像,法律另有规定的除外。

三是涉嫌侵犯发言权的,根据《中华人民共和国民法典》的规定,自然人的声音保护应当适用肖像权保护的有关规定。 换句话说,在使用另一个人的声音之前,必须获得有发言权的人的同意。

学习一些技巧,轻松识别 AI“人脸和声音”。

AI换脸技术的出现,导致听觉是虚拟的,看不一定是相信的。 那么我们该如何预防呢? 专家表示,事实上,无论AI人工换脸有多逼真,还是有一些方法可以辨别真假。

中国计算机学会安全专业委员会数字经济与安全工作组成员方宇:其实从我目前看到的实时深度伪造来看,其实是有一定方法可以验证的。

例如,我们可以要求对方在**说话时,通过在脸前挥手来进行识别和实时伪造,因为它需要实时生成和处理这个**,改变AI的面孔。

那么在挥手的过程中,会引起这种面部数据的干扰,最终的效果就是我们看到的,在挥手的过程中,他锻造的脸部会产生一定的抖动或者一些闪光,或者一些异常情况。

二是在点对点交流中,可以问一些只有对方知道的问题,以验证对方的真实性。

提高预防意识,避免个人生物信息泄露。

专家表示,除了一些识别AI换脸骗局的技巧外,我们每个人都应该提高预防意识,并在日常生活中采取相关预防措施,养成良好的上网习惯。 首先,要做好日常信息安全保护,加强人脸、声纹、指纹等生物特征数据的安全防护:此外,还要做好个人手机、电脑等终端设备软硬件的安全管理。 其次,不要登录来历不明**,以免被病毒入侵。 第三,做好可能用于声音、图像甚至**的应用的授权管理,做好定位采集。 不给他人收集自己信息的机会,也可以在一定程度上让AI换脸骗局远离他们。

随着人工智能技术的发展,需要多层次的监管规范。

除了提高自我预防意识,如何加强对AI技术的监管也成为越来越多人关注的问题。 AI技术本身不是问题,关键是我们如何使用它? 如何形成有效的监督? 据专家介绍,人工智能技术的发展需要多层次的监管和标准化。

首先,从源头上进一步加强对公民个人信息的保护,特别是对生物识别等隐私信息的技术、司法保护。 二是加强技术层面的管理。 例如,您可以使用**传播**或社交软件,使用专业的识别软件进行识别,并在“AI生成”水印上不可磨灭的“AI生成”水印,用于AI生成。 目前,这种数字水印造假技术有待进一步推广。 第三,在法律制度层面,要进一步完善人工智能领域的相关法律法规。 2023年8月15日,中国正式实施《生成式人工智能服务管理暂行办法》。 《办法》从多个方面“划红线”,旨在促进生成式人工智能的健康发展和规范应用。

相似文章

    利用AI换脸技术进行诈骗的过程

    近年来,随着人工智能技术的不断发展,AI换脸技术逐渐在诈骗领域得到广泛应用。本文将讨论AI换脸欺诈的过程和影响,并提出相应的预防措施。.AI换脸实施欺诈的过程。AI换脸技术是一种基于人工智能的图像处理技术,可以将一个人的面部信息替换为另一个人的面部信息。在欺诈领域,这种技术被广泛用于 骗局。一般来说...

    金融欺诈的面孔和声音变了,人工智能不是在“戏弄你”。

    近日,社交平台上有人利用香港行政长官李家超出席活动的图片,配上人工智能生成的声音,宣传所谓的高回报投资计划,还表示利润可以免税。对此,香港特别行政区 特区 郑重澄清相关视频均为假冒,呼吁公众提高警惕,强烈谴责违法者的欺诈行为。多年来,AI技术的迭代发展已经渗透到社会的各个场景,给人们带来了丰富的休闲...

    另请参阅“AI Face Swap”骗局!这家伙在7秒内被骗了30万

    眼见为实,有图不一定是事实,涉及多方的金钱交易必须经过核实,以检查真实性。成都网络辟谣平台提醒您 小心!和你说话的人可能不是我!警惕 AI换脸 骗局!五月的一天,小枫在家刷某短 字收到亲戚白某发来的消息,白某声称自己想找小枫帮忙做点什么,就让小枫给自己加新的QQ号。来源 济南刑警 微信 成功添加QQ...

    某公司遭AI换脸诈骗,被骗2亿!

    大家好,我是二狗。如今,AI换脸并不是什么新鲜事 但你敢相信,一家香港公司因此被骗了亿港币吗?这是怎么回事?据香港地区日报月日 报道,香港 披露首例多人换脸AI诈骗案,一家总部位于英国的跨国公司香港分公司被骗亿港元 相当于.亿人民币 根据 它被透露 在YouTube上收集公司高层的图片,然后使用人工...

    AI面临变革,短剧公司出海新思路

    随着国内监管红线的收紧,短剧行业正面临着题材重复饱和 行业内卷化的挑战,促使众多短剧制作商将目光投向海外市场寻求新的突破口。AI换脸技术为他们开辟了一条以低成本获得高回报的新途径,让中国演员在短剧中瞬间变身为外国演员。事实上,AI换脸技术已经广泛应用于电影 电视剧等领域,为制片人提供了更多的自由度和...