首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI诈骗正在全国爆发:技术进步为何总是骗子先用?

当AI技术给电信诈骗插上了翼之后,这场犯罪游戏规则被彻底刷新。近期,就有一位科技公司的掌门人,在短短十分钟的时间里,就遭遇了430万的巨额损失。这样的诈骗戏码,堪称前所未闻,无疑给我们敲响了未来防骗的警钟。

郭先生,福州科技公司的负责人,4月20日午时接了个视频呼叫,是他朋友的脸和声音,说急需430万保证金,希望通过郭的公司账户转账。

郭先生信任朋友,就转了钱。消息发出后,朋友却发问号,一问才知上当,立即报警。

警方发现,诈骗者用AI换脸和声音模仿,可能还盗用了微信账号。虽然警方截回了大部分钱,但还有接近百万在追。

老式骗局,视频或电话验证一下就能识破。但这种新手法,真是让人防不胜防。

其实在几年前,就有多起AI技术诈骗案件,一些智商超群的骗子当时就开始利用这一手段实施犯罪。

2020年,上海有公司高层因AI换脸技术受骗,损失达150万。2022年,陈先生被AI合成的“朋友”脸诱骗,损失5万。甚至有报道称,AI换脸技术已能骗过人脸识别系统。3D打印面具也能以低成本欺骗手机解锁,成功率惊人。更有网上廉价交易平台,人脸照片售价仅需数元。

随着AI文本和图像生成技术的成熟,真假辨识变得困难。现代技术让诈骗变得更加逼真,传统的“朋友急需帮助”式骗局已不再有效。

但深度学习制作的假脸与人视频通话,对多数人尤其是中老年群体来说,鉴别真伪极具挑战。而对大众而言,根本上解决这一问题似乎遥不可及。

AI诈骗的常见手段包括声音克隆、面部仿制和目标筛选。犯罪者通过录音等获取声纹,合成声音;使用AI换脸技术模仿受害者熟悉的人;并通过筛选技术锁定目标,最后在视频通话中使用这些仿制品,达到以假乱真的诈骗目的。

AI的实用性甚至俘获了诺奖得主莫言的心。

最近,他在一个文坛活动中透露,为写出一篇表彰作家余华的颁奖词而苦恼时,他借助了ChatGPT的智能。只需输入“活着”、“拔牙”和“文城”等核心词汇,AI便迅速生成了一篇带有莎士比亚风格的颁奖词,长达1000字。

莫言成为首位公开认可使用AI写作辅助的诺贝尔文学奖得主。在此之前,《人类简史》作者赫拉利也公开表示,用ChatGPT撰写前言非常有效。

杨幂、迪丽热巴、angelababy等当红女星,成为了AI换脸的重点对象目前的AI实时换脸,在直播中已能达到以假乱真的地步,不少人点进直播间以后以为主播只是长得像明星,不过也有一些直播间出现了人身比例失调的违和现象。

AI无所不能复制,无所不能模仿。谁能保证,这些科技成果不会被坏人利用?

当前,取代人类工作的忧虑已经迫在眉睫。

同时,有关技术还将给人类社会带来“深度伪造”这一新威胁,在这种技术下,个人的形象和声音生物特征被AI复制,很容易产生新型的AI诈骗。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OLrxRlGcXdbyWS3Ei45XDD3A0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券