前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >警惕!AI变声技术造就新型诈骗!

警惕!AI变声技术造就新型诈骗!

作者头像
简单并不简单
发布2019-10-14 17:58:53
1.1K0
发布2019-10-14 17:58:53
举报

哈喽!各位小伙伴大家好呀!

最近的AI换脸很热,

比如“ZAO”这个APP就上了一波热搜。

AI技术大放光彩时,

我们也慢慢意识到,

AI带来的不仅仅是便利,

也给了不法分子可乘之机。

今年三月,据华尔街日报报道,

犯罪分子通过AI变声技术,

模拟了英国某能源CEO的声音,

并冒充CEO欺骗了多位同事和合作伙伴。

使得该公司损失约22万欧元。

之前才说过的AI换脸,

现在又冒出一个AI变声。

AI换脸是什么魔鬼技术?

那AI变声又是一个什么魔鬼技术呢?

往简单了说,

也就是通过分析你的声音特点,

然后将任何的文字,或者语音,

转换成你的声音。

比如高德地图中志玲姐姐的声音,

就是通过软件合成的。

也就是获取到足够多的原版声音文件,

然后通过AI变声,转换成目标人物的声音。

5月24日,

搜狗CEO王小川在极客公园rebuild大会上,

现场演示了其智能语音模拟系统,

将自己的声音模拟成高晓松和东北妹子的声音。

最新版的搜狗输入法现在就已经有变声功能了,

而且是内置的,用户只要在语音输入中选择变声功能,

输入想说的话,再选择一个喜爱的角色,

就能把个人声音瞬间“变成”该角色的声音,

模拟声音的逼真度相当高,几乎可以做到“以假乱真”。

以后你真的有可能接到“马云”的电话,

反正是要更加小心应对了。

以前我们听到的诈骗新闻,

大多是通过电话,短信,

或者盗取微信来实施诈骗。

而我们在微信上收到转账消息时,

一般都会通过语音来辨别是否为本人,

如果声音没问题,那一般也就转了。

但是有了AI变声,

诈骗分子通过盗取微信,

或者克隆微信语音,

获取到用户的语音信息。

用软件分析后,

别说发一句语音给你听,

直接跟你语音电话,

你可能也很难发现端倪,

正如文章开头被诈骗的公司一样,

很有可能就会上当受骗。

而目前并没有什么有效手段能够防范变声诈骗,

我们目前能做的也就是:

不乱用软件,不乱点链接,不乱看网站,

不随意填写隐私信息。

并且要提醒父母,亲人等对科技知识匮乏的人,

让他们也多一个心眼。

在科技发展越来越快的今天,

信息时代带给我们越来越多的便利,

但是同样也带来了很多负面效应。

在科幻片中,有很多人工智能被坏人利用,

或者本身就是人工智能给人类带来灾难,

像现在大数据环境,

你搜索过什么,

然后网站上的广告就会推送相关商品,

又比如,网络摄像头公司,

由于自身技术不成熟,或技术漏洞,

导致大量用户的家中隐私视频被公然上传到网上。

任何的技术都是一把双刃剑,

如何运用好,或许只有那些科技大佬来引领发展方向。

好在现在大多数的科技大佬,

腾讯、谷歌、苹果等科技公司,

都在为“科技向善”而努力。

好了,本期分享就到这里啦!

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-10-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 电脑网络小帮手 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
人脸融合
人脸融合(Face Fusion)可将一张人脸图像对应的人脸特征融合到模板图像中的特定人物上,生成的图片既兼具指定图像和模板图像中的人脸特征,也保持了模板图像中人物的姿态、表情、动作等属性,支持单脸、多脸、选脸融合。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档