DeepFake换脸诈骗怎么破?让他侧个身

DeepFake换脸诈骗怎么破?让他侧个身DeepFake被用到了电信诈骗里,该怎么破?让他转过头,看看他的侧脸就好了。DeepFake一直以来都存在着这样一个漏洞:当伪造的人脸完全侧着(转90°)时,真实性就会急剧下降。为什么会出现这样的结果呢?外网有这么一篇文章,解析了为什么在侧脸的情况下,面部伪造的效果大打折扣。侧脸失真的原因横向限制使用DeepFake换脸,当人脸是侧角度时,真实性会急剧下降。这是因为大多数基于2D的面部对齐算法,视捕捉到侧视图的特征点数量仅为主视图的50%-60%。以“JointMulti-viewFaceAlignmentintheWild”中的Multi-viewHourglass面部对齐模型为例。通过从面部识别特征点,以此为学习数据来训练模型。从图中可以看出,正面对齐时识别到68个特征点数量,而在侧面对齐时,仅仅识别到39个特征点数量。侧面轮廓视图隐藏了50%特征点,这不仅会妨碍识别,还会干扰训练的准确性以及后续人脸的合成。DeepFake专家SiweiLyu博士表示:对于当前的DeepFake技术来说,侧脸确实是一个大问题。面部对齐网络(facialalignmentnetwork)对于正面效果非常好,但对于侧面效果不太好。这些算法有一个基本的限制:如果你只覆盖你的脸的一部分,对齐机制就可以很好地工作,并且在这种情况下非常强大,但是当你转身时,超过一半的特征点丢失了。普通人影像资料“沙漠”换脸要达到比较逼真的效果,还得经过大量的训练,这意味着需要有足够的训练数据。外网就有人通过训练大量的数据,将杰瑞·宋飞人脸替换到到《低俗小说》(1994)中的场景中。获得的侧脸图像也很难看出破绽:但是达到如此逼真的效果,是经过了大量数据的训练,在上述这个例子中,电视节目“Seinfeld”就为此次训练提供了长达66个小时的可用镜头。而相比之下,除了电影演员之外,普通人的影像资料都少之又少,并且在平时拍照记录时,很少有人会记录完全呈90°的侧脸照。因此,通过DeepFake伪造的人脸很轻易就在侧脸时露出破绽。也有网友在HackerNews上调侃道:最近去一家不知名的银行办了张卡,竟然需要我的侧身照,当时我还很疑惑,现在我终于知道为什么了。用手在面前晃动也可以识别伪造的脸视频通话时判断对方是不是DeepFake伪造的,除了通过侧脸判断,还有一个小方法:用手在面前晃动。如果是伪造的人脸,手与脸部图像的叠加可能会出现错乱,并且手在晃动过程中会出现延迟现象。在换脸寡姐和X教授时,手和面部叠加发生错乱实时的DeepFake都会面临这样一个问题:需要将真实的遮挡物叠加到不真实的面部图像上,一般称这个操作为“遮罩”或“背景去除”。并且,实时DeepFake模型需要能够根据要求随意执行抠图,达到可令人信服的水平。但往往也会有很多混淆的遮挡物来影响“抠图”的过程,比如说具有人脸特征的遮挡物会给模型造成“困扰”,使其“抠图”过程很难进行。用手在伪造的脸前晃动,遮挡物的快速移动会给“抠图”带来很大的困难,从而造成很大的延迟,并且会影响叠加的质量。OneMoreThin...PC版:https://www.cnbeta.com/articles/soft/1302831.htm手机版:https://m.cnbeta.com/view/1302831.htm

相关推荐

封面图片

DeepFake换脸诈骗怎么破?让他侧个身https://www.ithome.com/0/634/139.htm

封面图片

中国官媒:“AI换脸”诈骗出现涉政苗头

中国官媒:“AI换脸”诈骗出现涉政苗头新华社下属的《瞭望》新闻周刊星期天(7月2日)报道,中国北方某地警方近日发布一起利用“AI换脸”的诈骗案件。引人关注的是,该案不仅是一起新型网络诈骗,更是一起涉政诈骗案件。报道称,诈骗分子在微信视频聊天中“换脸”成受害人认识的一名领导干部,并提出其朋友有一笔工程保证金需要借用受害人公司的对公账户走账。在视频画面中,骗子“换脸”后面部表情自然,声音逼真,受害人便放松了警惕,转账后打电话确认,才知道被骗。业内人士表示,只要有足够的图像、音频素材,不法分子就可以通过人工智能“换脸”软件、合成声音软件伪造虚拟形象,实施诈骗。而由于工作原因,一些领导干部的面部、声音等生物特征信息更易被获取,被人工智能学习利用后造成的潜在危害性也更大。业内人士提醒社会各界提高识骗防骗意识,有关部门也应依法加大对人工智能“辅助”诈骗案件的执法力度,严肃追究相关人员法律责任。——

封面图片

英特尔推出Deepfake实时检测工具 分析面部血流精准判断视频证伪

英特尔推出Deepfake实时检测工具分析面部血流精准判断视频证伪"Deepfake视频现在无处不在。你可能已经看到了它们;名人做或说他们实际上从未做过的事情的视频,"英特尔实验室高级研究科学家IlkeDemir说。英特尔的实时Deepfake检测使用了英特尔的硬件和软件,在服务器上运行,并通过一个基于网络的平台进行接口化服务。在软件方面,一系列专业工具的搭配构成了优化的FakeCatcher架构。团队使用OpenVino来运行人脸和地标检测算法的AI模型。计算机视觉模块用英特尔集成性能原件(一个多线程软件库)和OpenCV(一个处理实时图像和视频的工具包)进行了优化,而推理模块则用英特尔深度学习促进器和英特尔高级矢量扩展512进行了优化,媒体模块用英特尔高级矢量扩展2进行了优化。团队还依靠开放视觉云项目为英特尔至强可扩展处理器系列提供了一个集成软件栈。在硬件方面,实时检测平台可以在第三代英特尔至强可扩展处理器上同时运行72个不同的检测流。大多数基于深度学习的检测器会查看原始数据,试图找到不真实的迹象并确定视频的问题所在。相反,FakeCatcher通过评估使我们成为人类的因素,那就是视频像素中微妙的"血流",在真实视频中寻找真实的线索。当心脏泵血时,人的静脉会改变颜色,这些血流信号是可以从面部各处收集的,算法将这些信号翻译成时空图。然后,利用深度学习,就可以立即检测出一个视频是真的还是假的,因为Deepfake视频伪造出的人脸是不会有这样细微的血流特征的。Deepfake视频是一个日益增长的威胁。根据Gartner的数据,公司将在网络安全解决方案上花费高达1880亿美元。实时检测这些Deepfake的视频也很困难--检测应用程序需要上传视频进行分析,然后等待几个小时的结果。Deepfake造成的欺骗会造成伤害,并导致负面后果,如对媒体的信任度降低。因此,FakeCatcher能帮助恢复信任,使用户能够区分真实和虚假的内容。FakeCatcher有几个潜在的使用案例。社交媒体平台可以利用这项技术,防止用户上传有害的Deepfake视频。全球新闻组织可以利用该探测器,避免无意中放大被操纵的视频。非营利组织可以利用这个平台,使每个人都能简单地检测Deepfake,防止其带来误导。...PC版:https://www.cnbeta.com.tw/articles/soft/1332853.htm手机版:https://m.cnbeta.com.tw/view/1332853.htm

封面图片

中国的“Deepfake”骗局展现AI技术驱动下的诈骗极具危险性

中国的“Deepfake”骗局展现AI技术驱动下的诈骗极具危险性北京,5月22日(路透社)——中国北方发生的一起诈骗案使用复杂的“深度伪造”(Deepfake)技术说服一名男子将钱转账给所谓的朋友,这引发了人们对人工智能(AI)技术可能助长金融犯罪的担忧。随着人工智能驱动的欺诈行为(主要涉及语音和面部数据的操纵)的增加,中国一直在加强对此类技术和应用程序的审查,并在1月份通过了新规则以合法保护受害者。内蒙古地区包头市警方表示,犯罪分子使用人工智能换脸技术在视频通话中冒充受害人的朋友,并收到了430万元人民币(62.2万美元)的转账。警方在周六的一份声明中说,他认为他的朋友需要在投标过程中支付押金,所以转了这笔钱。警方补充说,在朋友表示不知道情况后,这名男子才意识到自己被骗了,并表示他们已经追回了大部分被盗资金,并正在努力追查其余资金。此案在微博上引发了关于网络隐私和安全威胁的讨论,周一,“AI骗局正在全国爆发”的标签获得了超过1.2亿的浏览量。“这表明照片、语音和视频都可以被骗子利用,”一位用户写道。“信息安全规则能跟得上这些人的技术吗?”——

封面图片

手机行业首个端侧 AI 反诈检测技术亮相 2024MWC 上海

手机行业首个端侧AI反诈检测技术亮相2024MWC上海26日,手机行业首个端侧AI反诈检测技术亮相2024MWC上海。荣耀CEO赵明在当天演讲中为观众演示AI换脸检测技术如何反诈:当一个年轻人的脸通过Deepfake实时被换脸成一个老人,该技术可自主识别用户视频通话中的画面要素,如果检测到视频存在AI换脸,将向用户发出风险提醒。过去一年,全球Deepfake类型AI欺诈案暴增3000%,Onfido研究显示,攻击者越来越多地转向使用深度伪造信息实施“注入攻击”,攻击者会绕过物理摄像头,使用诸如虚拟摄像头等工具将图像直接输入系统的数据流。(第一财经)

封面图片

中国警方破获79起AI换脸诈骗案 抓获515名嫌疑人

中国警方破获79起AI换脸诈骗案抓获515名嫌疑人中国警方针对“AI换脸”欺诈问题发起专项行动,侦破相关案件79起,抓获犯罪嫌疑人515名。综合中新社、中国日报报道,中国公安部星期四(8月10日)召开发布会,通报全国公安机关打击整治侵犯公民个人信息违法犯罪行为的举措成效,其中包括上述“AI换脸”诈骗类案件。新华社下属的《瞭望》新闻周刊7月2日曾报道,中国出现好几起利用“AI换脸”的诈骗案件,甚至出现涉政苗头,有不法分子利用人工智能“深度伪造”冒充领导干部行骗。业内人士称,只要有足够的图像、音频素材,不法分子就可以通过人工智能“换脸”软件、合成声音软件伪造虚拟形象,实施诈骗。中国公安部网络安全保卫局副局长李彤星期四在发布会上说,犯罪分子用于实施“AI换脸”的物料主要为照片,特别是身份证照片,同时结合人员姓名、身份证号来突破人脸识别验证系统。公安机关联合国家重点实验室等单位,开展人脸识别与活体检测技术安全测评,覆盖了境内用户量大、问题隐患突出的即时通讯、网络直播、网络社交、电商平台、金融支付等重点APP,及时发现人脸识别验证系统存在的风险隐患,通报运营主体升级安全保护措施和人脸识别算法。李彤说,警方依托“净网”专项行动,严打泄露身份证照片等图像信息的犯罪源头,破获“AI换脸”案件79起,抓获犯罪嫌疑人515名,有效遏制了该类犯罪势头。除此之外,针对快递信息泄露引发电信诈骗的问题,发布会上提到,公安部会同中央网信办、国家邮政局联合开展为期六个月的邮政快递领域个人信息泄露治理专项行动,共侦破窃取、贩卖快递信息案件206起,抓获犯罪嫌疑人844名,其中快递公司内部人员240名。另外,针对装修、贷款等骚扰电话的问题,公安机关联合工商部门开展专项整治,惩处了一批非法买卖公民个人信息的金融公司、装修公司、物业公司和房地产公司,循线打掉多个电话推广犯罪团伙。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人