首页
学习
活动
专区
工具
TVP
发布

AI人工智能时代的安全风险,你知道多少?

不可否认,AI人工智能确实改变了很多人的生活交流方式。某度音响、某猫精灵等这几年都是很火的人工智能产品代表,先不说他们是不是算的上真正的AI人工智能,单说他们的可玩性、互动性、联网功能等都让很多人乐此不彼。可这类AI人工智能产品的潜在安全风险,却也是让我们不可忽视。

AI人工智能时代的安全风险

AI人工智能安全问题可以分为以下几类:

1、AI人工智能自身算法问题;

图像识别、图像欺骗等会导致自动驾驶出问题,谷歌也做了一些研究,如果模型文件被黑客控制恶意修改,并且给它学习,会产生完全不一样的结果。

2、AI人工智能引入的第三方组件问题;

这些组件也会存在问题,包括对文件、网络协议、各种外部输入协议的处理都会出问题。被黑客利用,带来的是灾难性的毁灭,所以现在产业界学术界都非常关注AI的这个方面。

3、AI人工智能接入网络的安全;

现在的AI人工智能不可避免的会引入网络连接,网络本身的安全风险也会将AI人工智能带入风险的深坑;

但是很多人不会去考虑潜在风险,特别是最广大的消费者。可能很多人会说:有授权、需要登录、有指纹认证、有面部识别,哪有那么危险!可是你不要忘记,这些所谓的安全验证,最终的表现形式还是数据化,无论他是处理、传输、或者是存储,只要是数据化的东西都是可复制、可获取、可编辑的。数据安全的问题存在于数据的整个生命周期,从数据获取、传输、存储、使用等环节,数据的机密性、数据的完整性、数据的可用性等都是系统安全的重要环节。

通俗来讲就是:再牛逼的安全验证,最终也不过是一串数据!

我们要清楚的认识到,人工智能的时代,数据安全也面临了很多新的挑战。但是从AI人工智能的安全来说,人工智能时代到底是更好还是更坏呢?

AI人工智能时代到底是更好还是更坏

AI人工智能时代到底是更好还是更坏?从以下3点来看:

1、随着科技的发展,AI人工智能安全一定会有更强有力的工具出现,精确高效的信息过滤、安全多样的身份认证。

2、在更高级别的AI人工智能加密算法驱动下,很多新型的安全形态会出现,可以用产生的算法来对数据进行加密。

3、AI人工智能它本身的两面性,我们要清楚的认识到AI算法被用来去挖掘用户的隐私且带来的负面的效应也非常之大,还可以用来生成以假乱真的音频和视频, 还有大大失效的CAPTCHA检测等。

特别是在智能驾驶方面出现的问题,是很致命的问题。比如:改变交通标志、黑客入侵系统、数据植入云端让数据中毒都可以实现对智能汽车的攻击。对于白盒攻击,攻击者能够知道AI系统算法及参数,主要的攻击算法包括快速梯队算法、投射梯队算法等等。

AI人工智能机器人与对抗性机器学习

AI人工智能机器人与对抗性机器学习

电商场景欺诈行为非常丰富,涉及机注、刷单、黄牛、代购刷券、恶意订单、虚假评论等,几大主流电商平台的AI体系都会涉及。黑产整个生态环境也有攻防不同的技术,也会有意避开人机识别。

黑产有成熟的工具,比如:火牛刀锋。火牛有非常多的功能,注册、订单、刷券种种行为,可以看到黑产会导入帐号、收货人地址、微信手Q的地址、定时下单,还可以实现验证码的识别等。而刀锋工具作为第二大黑产工具,运作的时候可以用工具去自动滑动验证码,用多个账号做批量下单,使用不同的IP从而绕过人机识别技术。黑产工具有办法做爬虫,从不同的端拿到价格信息,同时因为IP地址更换,使得检测行为变得困难。

电商和黑产之间高对抗性的攻防将持续发生,AI人工智能机器人与对抗性机器学习僵尸一场持久的战争。

随着5G时代的到来,接入网络的智能设备会越来越多,我们在迎接AI人工智能的同时,随之而来的安全风险安全威胁也会越来越多样化。但我们更不能因噎废食,不能因为AI人工智能存在安全风险就止步不前,拒绝科技进步和时代发展。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190531A00N2500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券