首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

腾讯安全团队:谷歌AI学习系统有安全漏洞

腾讯安全平台部Blade团队日前对外发布消息称,该团队在对谷歌人工智能学习系统Tensorflow进行代码审计时,发现该系统存在重大安全漏洞,利用该系统进行编辑的AI场景,有遭受恶意攻击的可能。

据腾讯安全平台部负责人杨勇介绍,Tensorflow是目前谷歌免费开放给AI设计者的编程平台,程序员可以在该平台上进行AI组件的设计工作。杨勇表示,当含有安全风险的代码被编辑进诸如面部识别或机器人(19.510, 0.49, 2.58%)学习的AI使用场景中,攻击者就可以利用该漏洞完全接管系统权限,窃取设计者的设计模型,侵犯使用者隐私,甚至对用户造成更大伤害。

杨勇说:“通俗地讲,如果设计人员在给机器人编程时恰好使用了含有该漏洞的组件,那么恶意攻击者就有可能利用漏洞控制该机器人,这是非常可怕的。目前我们在AI安全领域还只是迈出了一小步,未来期待更多的技术人员一起完善AI,让AI更安全……”

Blade团队表示,Tensorflow是目前应用最为广泛的机器学习框架之一,已被运用在诸多AI场景中,如语音识别、自然语言理解、计算机视觉、广告、无人驾驶等;其一旦被黑客控制,后果不堪设想。目前Blade团队已将漏洞的运用机理致函谷歌公司,而该漏洞需要谷歌安全团队对代码重新编辑。

对此,一些业内专家也表达了担忧。上海信息安全行业协会专委会副主任张威认为,当前从事人工智能开发的企业几乎无一例外地将算法和数据相融合,一些数据可能涉及企业和用户的核心秘密,一旦出现安全漏洞,风险较高。

张威建议,有关企业应尽快自查是否使用过该平台进行AI编程,同时行业内应加强联系沟通,消除安全隐患。

文章编辑:人工智能技术社区

文章来源:腾讯Blade安全团队

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171217A00JJ300?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券