前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >小心! AI 语音诈骗了 2.25 亿元。。。

小心! AI 语音诈骗了 2.25 亿元。。。

作者头像
云头条
发布2022-03-18 18:07:00
3890
发布2022-03-18 18:07:00
举报
文章被收录于专栏:云头条云头条

据迪拜调查人员声称,AI语音克隆被用于发生在该国的一起重大抢劫案,并告诫公众提防网络犯罪分子使用这项新技术。

2020年初,阿联酋的一位银行经理接到了一个他认得声音的人打来的电话——对方是之前与他交谈过的一家公司的高管。

这位高管带来了好消息:他公司将进行一宗收购,于是需要该银行批准金额高达3500万美元(2.25亿人民币)的转账。一位名叫Martin Zelner的律师受聘协调整个过程,银行经理可以在其收件箱中看到该高管和Zelner发来的电子邮件,确认需要把多少钱转账到哪里。银行经理觉得一切看起来没异常,于是开始授权转账。

据《福布斯》杂志发现的一份法庭文件显示,他却不知道自己上当受骗,对方精心设了一个圈套:骗子们使用“深度语音”技术来克隆那位高管的声音。阿联酋已寻求美国调查人员的帮助,以追踪汇入到百年银行(Centennial Bank)持有的美国账户的40万美元失窃资金的动向。阿联酋认为这是一起精心策划的骗局,涉及至少17名嫌犯,将骗取的资金汇到全球各地的银行账户。

法庭文件没有披露更多细节,也没有提供受害者的姓名。

这是已知的第二起骗子涉嫌使用语音整形工具实施抢劫的案子,但似乎比第一起案子要成功得多:据《华尔街日报》报道,在第一起案子中,骗子们在2019年曾使用该技术冒充英国一家能源公司的首席执行官,企图窃取24万美元。

阿联酋的这起案子表明了这种高科技骗局的危害性有多大,并敲响了一记警钟:不法分子使用AI伪造所谓的深度造假图像和声音,以实施网络犯罪活动。

英国多塞特警察局前警官Jake Moore现在是安全公司ESET的网络安全专家,他说:“音频和视觉深度造假是21世纪技术一个值得关注的动向,但它们也可能异常危险,对数据、金钱和企业构成了巨大威胁。我们目前正处于转折点,恶意分子转移专业知识和资源,改而使用这项最新技术,嫁祸于那些不知道深度造假技术的人。”

“操纵音频比制作深度造假视频来得更容易实现,数量只会有增无减;由于对这种新型攻击途径缺乏宣传和意识,加上没有更好的身份验证方法,更多的公司企业可能会沦为以假乱真的谈话的受害者。”

语音克隆曾经是一项仅出现在像《碟中谍》这种虚构的电影领域中的技术,而如今唾手可得。从伦敦的Aflorithmic到乌克兰的Respeecher和加拿大的Resemble.AI,众多科技初创公司都在研究日益先进的AI语音技术。

最近几个月这项技术引起了轰动,已故的Anthony Bourdain为一部关于其生活的纪录片合成了自己的声音。与此同时,意识到AI有可能被恶意分子使用,少数公司(比如估值9亿美元的安全公司Pindrop)现在声称它们可以检测合成的语音,从而防止欺诈。

如果您的讲话录音在网上可以找到,那么很可能已在上演一场暗战,以便在您不知情的情况下控制您的声音。

 相关阅读 ·

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-10-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 云头条 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
多因子身份认证
多因子身份认证(Multi-factor Authentication Service,MFAS)的目的是建立一个多层次的防御体系,通过结合两种或三种认证因子(基于记忆的/基于持有物的/基于生物特征的认证因子)验证访问者的身份,使系统或资源更加安全。攻击者即使破解单一因子(如口令、人脸),应用的安全依然可以得到保障。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档