前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >脑洞 | AI之间有一场“搏击赛”,邪恶 AI 能否被战胜?

脑洞 | AI之间有一场“搏击赛”,邪恶 AI 能否被战胜?

作者头像
大数据文摘
发布2018-05-24 17:41:13
3280
发布2018-05-24 17:41:13
举报
文章被收录于专栏:大数据文摘

按要求转载自36kr

作者 | Smiletalker

编者按:近日,马斯克与扎克伯格就 “AI 会不会终结人类文明”的话题吵了起来,对 AI 是恶是善业界有不同的声音,那么如果 AI 是邪恶的话,未来我们该如何应对呢?未来五个月,在数据科学竞赛平台Kaggle上将进行一场比赛,比赛将使研究人员的算法相互混淆,试图混淆和欺骗对方,希望这场争斗能够帮助我们深入了解如何加强机器学习系统,防止未来的攻击。

怀俄明大学助理教授Jeff Clune表示:“通过欺骗深层神经网络和设计不能被欺骗的深层神经网络,来加速研究的进程,这是一个绝妙的点子。”

比赛由三个部分组成。

  • 第一个挑战是只是尝试混淆机器学习系统,使其无法正常工作。
  • 第二个挑战将涉及到试图强制系统错误地分类某些东西。
  • 第三个挑战将涉及发展最强大的防御。比赛结果将在今年晚些时候的AI大会上公布。

机器学习,特别是深度学习,正在迅速成为许多行业不可或缺的工具。 该技术涉及将数据输送到特殊类型的计算机程序中,指定特定结果,并使机器开发算法来实现结果。深度学习通过调整数字模拟的神经元构建的巨大的互连网络,来做到这一点。

长久以来,机器学习系统一直可以被欺骗。 例如,垃圾邮件发送者可以通过识别过垃圾邮件滤器的算法来规避邮件过滤。

近年来,研究人员已经表明,即使最聪明的算法有时也会以令人难以置信的方式被误导。 例如,具有接近人类水平的识别图像深度算法可能被看似抽象或随机图像所迷惑。

本次大赛的组织方,Google Brain的研究员Ian Goodfellow表示:“对抗性的机器学习比常规机器学习更难研究 - 很难说你的攻击强度很强或者你的防御力是否真的很弱。”

随着机器学习的普及,这种攻击可能被用于获利或纯粹的恶作剧。例如,黑客可能逃避安全措施,以安装恶意软件。

Goodfellow表示:“计算机安全绝对是在转向机器学习。坏人将使用机器学习来自动化攻击,我们将使用机器学习来进行防御”。

在理论上,犯罪分子也可能让声音和脸部识别系统瘫痪,甚至张贴海报来欺骗自动驾驶汽车的视觉系统,导致系统崩溃。

Kaggle已经成为算法开发的宝贵繁荣之地,也是有才华的数据科学家的温床。 该公司于3月份被Google收购,现在已成为Google Cloud平台的一部分。 Goodfellow和另一位Google Brain研究员Alexey Kurakin在收购之前就提出了这次大赛的想法。

Kaggle的联合创始人兼CTO Benjamin Hamner表示,他希望比赛能引起人们的关注。 “随着机器学习的使用越来越广泛,从对抗学习中了解问题和风险变得越来越重要,”他说。

公开竞赛的好处超过了任何宣传新型攻击的风险,他补充说:“我们认为,这项研究最好是建立公开的,而不是闭门会议。”

原文链接:http://36kr.com/p/5087288.html

2017年7月《顶级数据团队建设全景报告》下载

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-08-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据文摘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档