首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何预防诈骗分子利用人工智能进行诈骗-关于特定人声人工智能模拟的应用

骗子不可怕,就怕骗子更努力. 当人工智能越来越容易模拟特定人声的时候,是时候思考下如何预防诈骗分子利用人工智能进行诈骗。

央视有档节目,叫,里有一期展示了一个语音机器人,通过训练可以模拟特定人的声音和情绪,并构建任意对话内容甚至唱歌。

可能大家就会有个疑问,那我的音色可以被机器人模仿吗?答案是肯定的, 只需要一些声音学习样本就可以做到。

主持人曾经提到一个应用就是用机器人模拟亲人的声音去陪伴孩子或老人。那么问题来了。你的声音也可以同样被骗子用来去欺骗你的亲人, 当骗子获得足够的声音样本后,完全可以利用串改号码后的诈骗电话用你的声音与亲人对话。除非你与亲朋好友之间约定电话必须得先天王盖地虎等等暗语确定身份,否则类似的诈骗会比诈骗短信,诈骗电子邮件更容易让人受骗。

人工智能能够越来越容易精确的模仿一个人,越来越多的语音交互程序会让特定人的声纹更容易被建立,如何保护这种技术这些数据不被诈骗分子利用,各大应用开放商需要提升自己的数据安全保护策略,另一方面,人们预防诈骗得多些考虑了。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180305G0UJKD00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券