首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI是“弱智”还是“小聪明”?交给系统来鉴别吧

全文共2046字,预计学习时长4分钟

美剧《西部世界》,讲述了人工智能机器人自主觉醒的故事。

科学家中总有一类神奇的群体,将先进的技术用来实现各种脑洞。比如把便便转换成石油,又比如给螳螂造一款3d眼镜……看得人眼花缭乱。

而最让人捉摸不透的就是人工智能专业了。毕竟,大多数人理解的人工智能,就是拥有比人类还聪明的大脑和海量知识的智能体。于是,“人工智能要取代人类?”“AI来了,XXX行业首当其冲被淘汰!”这样吹嘘乃至惊悚的新闻标题不胜枚举地出现了。终于,一些务实的科学家忍不住发声了:莫慌!你担心的AI,目前尚处于“弱智”阶段,至少不会让你像《西部世界》里的主角一样生活变得一团糟,甚至开始怀疑人生。

这群科学家设计了一套检测人工智能的系统——它可以鉴别AI的真伪及智能等级。

人工智能和机器学习算法(例如深度学习)已经成为日常生活中必不可少的一部分:它们可以提供数字语音助理或翻译服务、改善医疗诊断、自动驾驶等等。目前强大的学习算法似乎已经可以逼近人类的能力,甚至有时还能超越人类。但事实上,目前的AI仍处于弱人工智能阶段。弱人工智能并不能自主地推理和解决问题,只是一种工具性的存在。在其技术比重中,“人工”远远大于“智能”。

来自柏林工业大学、弗劳恩霍夫-海因里希赫兹研究所和新加坡科技设计大学的研究人员发明了一套系统,可观察到的各种“智能”范围,尤其是用具备自动化分析和量化的新技术来分析人工智能系统。

这项新技术的先决条件基于一种分层相关传播(LRP)算法。它使人工智能的输入变量可视化,而人工智能系统正是根据这些变量来做出决策的。新型的频谱相关分析(SpRAy)作为分层相关传播算法的扩展,可以识别和量化广泛的学习决策行为。通过这种方式,即便在很大的数据集中,人们也可以检测到其中不理想的决策。

柏林工业大学机器学习教授Klaus-Robert Müller博士称,这种所谓的“可解释性”人工智能是迈向人工智能实际应用的重要一步。他表示:“如果一个人工智能系统涉及不可靠的或者欺骗性的问题解决策略,那么它决不能被投入使用,尤其是在医疗诊断和安全问题至关重要的领域中。”

通过使用新开发的算法,研究人员终于可以测试现有的人工智能系统并获得相关的定量信息:从使用简单的方法解决问题到使用欺骗性策略,再到使用高度复杂的“智能”策略,一整个人工智能系统的“智能”范围都被观察到了。

弗劳恩霍夫-海因里希赫兹研究所小组负责人Wojciech Samek博士表示:“看到人工智能涵盖了如此广泛的问题解决策略,我们十分惊讶。”即便是现代人工智能系统,也不能总是发现被人类视为有意义的解决方法,但有时也会使用所谓的“聪明的汉斯”策略。

“聪明汉斯”正在用蹄踏地板的方式给出了以下几个数学题的答案:8-4=4、8+4=12、8/4=2和8×4=32。

“聪明的汉斯”是一匹会算数的马,这在20世纪初曾引起科学界的巨大轰动。随后人们发现,汉斯并不会数学,但是90%的情况下,它都能根据提问者的反应得出正确答案。

Klaus-Robert Müller和Wojciech Samek的团队发现各种各样的人工智能系统也会采取相似的“聪明的汉斯”策略。例如,一个人工智能系统几年前在多个国际图像分类竞赛中获胜,而它采取的策略在人类眼中是幼稚的。它会根据背景对图像进行分类:当图片中有大量的水时,图像就会被分配到“船”类别;如果存在铁轨,则图像会被归类为“火车”。除此之外,该人工智能系统还能通过版权水印将图片进行分类。尽管它确实将绝大多数图像正确分类了,但是并没有解决真正的任务,即识别图像中船和火车的概念。

研究人员在一些最先进的人工智能算法(即深度神经网络)中也找到了这些“似是而非”的问题解决策略,迄今为止,人们都以为这些算法完全可以避免这类缺陷。而实际上,这些网络的分类决策部分基于准备图像时所产生的信息,与图片实际的内容一点关系也没有。

“在实际应用,这类人工智能系统没什么用。”Klaus-Robert Müller声称,“它们如果应用于医疗诊断或者安全问题至关重要的领域,甚至可能会产生巨大的危险。可以想象,目前使用的大约一半的人工智能系统都部分或完全采用这种‘聪明的汉斯’策略。所以现在我们需要对这个问题进行系统地检查,以确保人工智能系统的可靠性。”

借助新的技术,研究人员同时还检测出那些无意中学到“小聪明”策略的人工智能系统。例如学会玩仿真乒乓球游戏(Atari公司出品的一款游戏)的人工智能系统。“在这个例子中,人工智能显然明白这款游戏的概念并且找到了一种智能方法,通过针对性和低风险的方式获得更多分数。”Wojciech Samek说,“这个系统有时甚至会用真实玩家做不到的方式来干预游戏。”

新加坡科技设计大学助理教授Alexander Binder表示:“除了了解人工智能的策略外,我们也为迭代数据集的设计提供了‘可解释性’人工智能的可用性,即移除数据集中可能会导致人工智能学习错误策略的信息,同时帮助研究人员决定哪些未标记的例子需要注释或添加进来以减少人工智能的失误。”

Klaus-Robert Müller表示:“我们的自动化技术是开放性资源,所有科学家都可以使用。我们认为这项技术是使人工智能在未来更强大、更具解释性和更安全的重要一步,同时更多的研究还需要跟进。这是让人工智能得到广泛应用的重要前提。

留言 点赞 发个朋友圈

我们一起分享AI学习与发展的干货

编译组:黄琎、唐仪

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190419A0ATIG00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券