人工智能“被黑”的结果出人意料

人工智能工程师发现,在香蕉旁边放置一片烤面包机的广告贴,机器就会把含有香蕉的整个图像识别为烤面包机。

人工智能真的比人类具有智慧吗?发展人工智能的工程师指出,人工智能实质上没有想像的那么强。人只要使用一点点小技巧,就可以“黑掉”它,让它计算错误。

据《科学美国人》1月22日报导,人工智能已成为热门话题,因为程序的性能越来越强,可以制造以假乱真的视频、维妙维肖的人面画像、真伪难辨的虚拟人声等等。有人担心,人工智能可以达到完全取代人而进行工作的程度。

但是,开发深度学习网络的工程师们表示,机器无论有多么聪明,也是极为脆弱的。人只要使用一点点的小技巧,就能轻松地扰乱它的判断。

美国麻省理工大学的一位人工智能学研究生阿瑟叶(Anish Athalye)解释说:“计算机(电脑)神经网络在某些方面确实有超人本领,好像它们能胜过人的能力。但是,它们有一种奇怪的特性,就是能被人轻而易举地骗过。”

人工智能能识别这是香蕉,但是不知道香蕉的含义,例如香蕉是一种热带水果,不宜长期储存。

阿瑟叶(Anish)等人发现,他们可以让深度学习系统把滑板判断为小狗、乌龟看成步枪。

阿瑟叶举例说,取一张香蕉图片,其背景为普通的土地。如果在其香蕉旁边放一张引起人幻觉的烤面包机彩色广告贴,那么谷歌的图片识别系统就会将它们识别为烤面包机,而不再是香蕉。

人工智能可以识别这是过度成熟的香蕉吗?它不能理解香蕉上的黑色斑点的含义。

纽约大学的心理学教授马库斯(Gary Marcus)认为,人工智能程序之所以能犯这种可笑的错误,是因为“机器不理解场景整体的意义”。换句话说,就是机器不懂图形所代表的含义,当然也无法理解“物体或事物之间的内在因果关系,而无法解读谁为什么原因而为谁做什么”。

近期,人工智能阅读器SQuAD表现出比人强的阅读能力。对此,马库斯在推特上评论:“SQuAD显示出机器能够注重相关文字段落的内容,但是它不明白这些段落的真正含义。”

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20180123B0Z2QE00?refer=cp_1026

扫码关注云+社区