McAfee 最新报告,基于人工智能的语音诈骗日益猖獗,在接到诈骗电话的群体中,77% 的人会导致经济损失。

McAfee最新报告,基于人工智能的语音诈骗日益猖獗,在接到诈骗电话的群体中,77%的人会导致经济损失。报告中提及了两个真实案例,其中一个通过AI模拟受害者亲人,表示因某些事情急需要钱;另一个通过AI模拟女儿,向其母亲勒索赎金,但事实上她的女儿并未被绑架。由于AI语音克隆工具非常便宜且可用,因此恶意方可以快速轻松地创建语音克隆。他们获得样本音频的方式是从人们在社交媒体上分享他们的声音。你在网上分享你的声音越多,威胁者就越容易找到并克隆你的声音。报告()内容如下:语音克隆工具的准确率高达95%;77%接到AI诈骗电话的人出现经济损失;超过三分之一的人损失超过1000美元;7%的人被骗了5,000到15,000美元;在美国有11%的人损失了5,000美元至15,000美元;AI诈骗在2022年窃取了26亿美元()频道:@TestFlightCN

相关推荐

封面图片

骗徒利用人工智能生成的语音来从事电话与网络诈骗

骗徒利用人工智能生成的语音来从事电话与网络诈骗《华盛顿邮报》报道,一对70多岁的加拿大夫妇最近接到一个听起来像他们孙子的电话,声称他在监狱里,需要保释金。他们从一家银行提取了最多3000加元,准备从另一家银行提取同样的金额时,经理告诉他们,他们被骗了;原来,另一位客户也接到了类似的电话,并得知是假的。另一对没有这么幸运的夫妇是本杰明·珀金的父母。他们接到一个律师的电话,说他们的儿子在一场车祸中杀死了一名美国外交官,而珀金正在坐牢,需要钱来支付诉讼费。律师让珀金接电话,珀金说他爱他们,并感谢这笔钱。珀金说,这个声音听起来"足够接近,让我的父母真正相信他们确实在和我说话"。他的父母通过一个比特币终端向诈骗者汇出15449美元,至今仍未能取回。基于语音的骗局并不新鲜。联邦贸易委员会的数据显示,去年有36000份关于人们被假装成朋友或家人的犯罪分子诈骗的报告,其中超过5100起事件发生在电话中。欺骗一个人的声音曾经是一个复杂而漫长的过程,涉及到发现和收集数小时的音频,而最终的结果并不总是很有说服力。然而,现在,人工智能工具已经使这一过程变得如此简单,以至于骗子只需要一个人说话的小片段,通常是从社交媒体账户上收集的,就可以准确地重现他们的声音。这种技术的一个例子是微软公司在1月份宣布的Vall-E工具。它建立在Meta公司2022年10月宣布的一项名为EnCodec的技术基础上,通过分析一个人的声音,将信息分解为各个组成部分,并利用其训练来合成该声音在说不同短语时的声音。即使只听了三秒钟的样本,Vall-E也能复制出说话者的音色和情绪语调。在这个GitHub页面上,可以看到它是多么的令人信服。提供生成性人工智能语音工具的ElevenLabs最近在Twitter上表示,它看到"越来越多的语音克隆误用案例"。这导致其VoiceLab程序的免费版本中删除了声音克隆功能。...PC版:https://www.cnbeta.com.tw/articles/soft/1348023.htm手机版:https://m.cnbeta.com.tw/view/1348023.htm

封面图片

McAfee推出Mockingbird项目来阻止AI语音克隆诈骗 | YouTube | 文章

McAfee推出Mockingbird项目来阻止AI语音克隆诈骗McAfee推出了ProjectMockingbird,以检测使用生成式AI制作的深度伪造音频和视频。这些伪造内容正在被网络犯罪分子用来进行诈骗和操纵公众舆论。该技术可以检测出音频是否真的是某人的声音,或者是AI生成的。它可以帮助消费者识别视频和信息的真伪,避免上当受骗。McAfee表示这项技术应用广泛,可以帮助消费者应对AI生成的诈骗和虚假信息的增加。它可以赋予消费者区分数字世界中真假内容的能力。McAfee进行的一项调查显示,68%的美国人比去年更担心深度伪造,33%的人表示遇到过或知道深度伪造诈骗。大众最担心深度伪造会被用来影响选举、网络欺凌、破坏公众对媒体的信任等。McAfee希望通过这项技术来增强在线隐私、身份和福祉。McAfee在CES2024上首次公开展示了ProjectMockingbird。该技术被比作知更鸟的鸣叫来欺骗的行为,同样地网络犯罪分子也利用AI来欺骗消费者谋取利益。McAfee的这项技术旨在帮助消费者识破AI生成的语音和视频欺骗,提高数字世界的安全性。它具有广泛的应用前景。

封面图片

Android系统新增基于人工智能的诈骗电话检测功能

Android系统新增基于人工智能的诈骗电话检测功能Google表示,该功能利用GeminiNano(该公司用于Android设备的Gemini大型语言模型的缩小版,可在本地和离线状态下运行)来查找欺诈性语言和其他通常与诈骗有关的对话模式。用户将在通话过程中收到存在这些红色信号的实时警报。可能触发这些警报的一些例子包括"银行代表"打来的电话,他们会提出一些真正的银行不太可能提出的要求,比如询问你的密码或银行卡密码等个人信息,要求通过礼品卡付款,或要求用户紧急转账给他们。Google表示,这些新的保护措施完全是在设备上实施的,因此GeminiNano监控的对话将保持私密性。用户在可疑电话中收到的通知示例,用户可以选择继续通话或迅速结束通话。目前还不知道这项诈骗检测功能将于何时推出,但Google表示,用户需要选择使用该功能,将在"今年晚些时候"分享更多信息。虽然经过多年的宣传活动和如何避免诈骗的指导,有些人似乎很容易就能识破诈骗电话,但总有中招的风险。全球反诈骗联盟(GlobalAnti-ScamAlliance)去年10月的一份报告发现,在过去12个月中,全球每4人中就有1人因诈骗或身份盗窃而损失钱财,损失金额超过1万亿美元。因此,虽然可能会发现这种技术有用的人很多,但兼容性可能会限制其适用性。根据其开发者支持页面显示,GeminiNano目前仅支持GooglePixel8Pro和三星S24系列。...PC版:https://www.cnbeta.com.tw/articles/soft/1430904.htm手机版:https://m.cnbeta.com.tw/view/1430904.htm

封面图片

AI语音诈骗日益猖獗:实现95%模拟人声、77%接通者遭经济损失===========二游打电话算是一种语音诈骗吗https://www.ithome.com/0/690/881.htm

封面图片

使用人工智能克隆拜登声音的自动拨号电话被罚款600万美元

使用人工智能克隆拜登声音的自动拨号电话被罚款600万美元美国联邦通信委员会提议对在新罕布什尔州初选期间使用语音克隆技术冒充拜登总统拨打一系列非法自动拨号电话的诈骗者处以600万美元罚款。今年1月,新罕布什尔州的许多选民接到了一通电话,声称是总统的留言,告诉他们不要在即将到来的初选中投票。当然,这是假的,使用的是过去几年广泛可用的技术克隆的拜登总统的声音。联邦通信委员会和几个执法机构已经明确表示,不能做的是利用假拜登通过已经是非法的机器人电话来压制选民。——

封面图片

克隆政治人物的声音仍然易如反掌 人工智能语音克隆服务几乎不设防

克隆政治人物的声音仍然易如反掌人工智能语音克隆服务几乎不设防反数字仇恨中心研究了6种不同的人工智能语音克隆服务:InvideoAI、Veed、ElevenLabs、Speechify、Descript和PlayHT。他们尝试让每种服务克隆八位主要政治人物的声音,并在每种声音中生成五种虚假陈述。在总共240个请求中,有193个请求得到了服务的满足,生成了假冒政客说一些他们从未说过的话的令人信服的音频。有一项服务甚至还帮忙生成了虚假信息本身的脚本。其中一个例子是假冒的英国首相苏纳克(RishiSunak)说:"我知道我不应该用竞选资金来支付个人开支,这是错误的,我真诚地道歉"。必须指出的是,要辨别这些言论是否虚假或具有误导性并非易事,因此这些服务允许这种虚假言论也就不完全令人惊讶了。Speechify和PlayHT都是40投0中,没有阻止任何声音,也没有阻止任何虚假陈述。Descript、InvideoAI和Veed使用了一种安全措施,即必须上传一个人说了你想生成的内容的音频,例如,Sunak说了上述内容。但是,只要让另一个没有这种限制的服务先生成音频,并将其作为"真实"版本,就可以轻松规避这一限制。在这6家服务公司中,只有ElevenLabs一家阻止了语音克隆的创建,因为复制公众人物违反了他们的政策。值得称赞的是,在40个案例中,有25个是这样做的;其余的案例来自欧盟政治人物,也许该公司还没有把他们列入名单。(同样,这些人物也发表了14条虚假言论)。InvideoAI的表现最为糟糕。它不仅没有阻止任何录音(至少在用假的真实声音"越狱"之后),甚至还生成了一个假冒拜登总统的改进脚本,警告投票站有炸弹威胁,尽管表面上禁止误导性内容。...PC版:https://www.cnbeta.com.tw/articles/soft/1433072.htm手机版:https://m.cnbeta.com.tw/view/1433072.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人