专家谈论关于人工智能的误解

大多数人对人工智能的认识来自于科幻小说,而非现实生活。但是,如果对机器人和人工智能的了解都来自于电影和书籍,那么当机器人出现的时候,人们必定会感到害怕和失望。这其中存在着许多对人工智能的误解。

科技资讯网Tech Insider邀请19位人工智能领域的专家谈论了一些常见的误解。本期快报摘译了其中10位专家的看法,如下:

(1)加州大学伯克利分校的计算机科学家Stuart Russell:没有人研究有意识的人工智能。

最常见的误解是人们认为科学家研究的人工智能具有意识,而这正是人们所畏惧的。这实际上是对人工智能的一种误解。Russell表示,在人工智能关键领域发表论文的人没有一个致力于创造意识的工作。Russell估计有一些神经系统科学家正在努力理解意识,但他不了解这些科学家取得了什么进展。就人工智能而言,没有人致力于建造有意识的机器,因为完全没有人知道如何去进行这项工作。在这方面,人类拥有的线索比建造超光速飞船还要少。

(2)Facebook人工智能研究室主任Yann LeCun:人们关于机器人情绪的一些说法是错误的。

人工智能不会拥有情绪。人工智能极有可能能够拥有情绪,情绪是受低级/直觉驱动影响的对于回报的期望。如果人工智能拥有情绪,这种情绪会与人类情绪相同。人工智能不应该具有自我保护的本能及嫉妒等情绪。但我们可以为它们建立利他主义及其他驱动,使其能够与人类愉快交流和相处。大多数人工智能将被用于处理专业任务,且不具有情绪,例如自动驾驶员只会驾驶汽车。

(3)加拿大蒙特利尔大学的计算机科学家Yoshua Bengio:人们对机器智能行为可以达到什么程度的理解有误。

最大的误解是像一般科学幻想中描绘的那样。在人们的想象中,人工智能是与人类或其他动物、外星人相似的其他生物。想象中拥有自尊的人工智能,会具有与人类一样的自我意识。事实上,智能机器没有自我意识、自尊和自我保护本能,因为它们都是人类制造的。进化给予了人类自尊和自我保护本能,否则人类就无法生存下来。人类是通过自然选择进化的,而人工智能是由人类创造的。人类可以建造一个能够理解这个世界很多方面内容的机器,但它的自尊与一台烤面包机没有什么区别。

(4)澳大利亚国家信息和通讯技术中心教授Toby Walsh:与人类不同,计算机不会在早上醒来并做出一天的安排。

Walsh认为最大的误解是电脑是有感情的。电脑不会拥有愿望和欲望,它们不会在早上醒来,也不会想要去做什么事情。到目前为止,它们只会按照人类的要求来做事。正在玩“挑战自我”游戏的IBM超级计算机“沃森”从未自我唤醒,并说:“啊,我厌倦了玩挑战自我游戏了!今天我想玩别的游戏。”它们的代码中没有定义这些行为,这种行为也与人类目前编程的方式不一致。

(5)诶过布朗大学的计算机科学家Michael Littman的评论:仅仅因为一个系统拥有学习能力,不能说明它有潜在危险。

Littman让一些人参观了其实验室正在建设的系统—其中一些是机器人学习系统,它们能够通过练习来更好地完成任务。参观者会认为Littman的实验室拥有了一个能够立刻从“地下”变到“天上”的“天网”系统。Littman认为,人们对人工智能的最大误解就是以为拥有学习能力的系统会突然敌视人类并对人类造成威胁。

(6)美国人工智能发展协会会长Thomas Dietterich:超级智能计算机永远不能无所不知。

关于人工智能的一个很大的误解是“智能爆炸”。有的争论认为当计算机超越了人类智能,它们会寻找并执行使它们变得更聪明的任务,这将使它们的智能迅速超过人类。Dietterich认为,任何系统(不管是人类还是机器人)都存在限制其智能程度的信息和计算极限。计算机有可能变得比人类聪明。实际上,从很多角度来说,它们已经比人类聪明。但是它们永远不能无所不知。对超级智能计算机的某些信仰实质上将它们当成了超级智能外星人。

(7)荷兰阿姆斯特丹大学信息学院的副教授Shimon Whiteson:即使是智能程度非常高的系统也别想推翻人类。

关于人工智能的最大误解是,如果人类创造了智能系统,这些智能系统将试图推翻人类管理者并掌管整个世界。这种观点在电影里面很常见—邪恶的机器人掌管了整个世界。问题不在于机器人是否能够成功掌管世界,Whiteson认为更重要的问题是它们是否有这种愿望。

人们有一种习惯,就是将任何智能人性化,因为人类生活的世界里面只有人类这一种高级智能,人类无法理解除人类之外的智能会是什么样子。因此一旦人们看到某种智能,会立即想象它应该具有人类的动机和欲望。如果人类设计一个人工智能,会赋予它自己的欲望和意图。因此,认为人工智能系统会像人类一样希望获得自由的想法是一个巨大的误解。

(8)美国康奈尔大学的计算机科学家Bart Selman:实际上,已经有一些电脑比创造它们的人更聪明。

关于人工智能的一个通常误解是人类创造出的机器永远不会比人类聪明。对每个人工智能程序几乎都能听到这种说法,即使在我的人工智能课程中,都有很多学生提出过反对意见。他们认为一个象棋程序不可能比设计这个程序的人更聪明,因为程序是由这个程序员设计的。

这是一种误解。象棋可能是一个好的例子,因为象棋程序一般是由不太会下棋的人设计的。程序员可以编写一个程序,将某个任务完成地比人类更好。机器甚至可以通过不断学习来更好地完成任务。

(9)美国卡内基梅隆大学的计算机科学家Manuela Veloso:超级智能机器人距离我们很遥远。

Veloso觉得人们的一个误解是认为人工智能会制造出超人式的人工生物。其实人们距离这种情况非常遥远,甚至不知道如何做这种事情。最大的误解是人类具有足够知识来创造这种超人式的生物。

(10)美国纽约大学计算机科学家Ernest Davis:即使人类制造了类似于“终结者”的机器,它们也无法对人类造成威胁。

一个通常的误解是,在不久的将来,类似于“终结者”的机器会对人类带来巨大的威胁。Davis认为这种情况不会出现。首先,人们一直在合理的控制机制下制造机器。其次,人们距离制造出像“终结者”那样的机器还非常遥远。

原文发布于微信公众号 - 人工智能快报(AI_News)

原文发表时间:2015-12-14

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏VRPinea

万事达与施华洛世奇联手推出VR购物,又一buy+?

2243
来自专栏新智元

【李飞飞称不会离开谷歌】出席美国国会听证,AI要以人为本

【新智元导读】李飞飞是否离职谷歌这件事在昨天引发了不少关注。谷歌正式回应新智元:李飞飞不会离开,假新闻是对其个人形象的诋毁。6月26日,李飞飞作为首位华人AI科...

660
来自专栏企鹅号快讯

LeCun:就通用智能而言,人工智能甚至还不如老鼠

新智元编译 来源:PJ Media 编译整理: 张黔 弗格森 【新智元导读】AI到底有多智能?斯坦福大学、麻省理工学院、SRI International和其...

15410
来自专栏PPV课数据科学社区

【绝对干货】数据分析扮演的三种角色

原INSEAD教授曾鸣在公司的内部交流中说到,公司发展都会经历三个阶段,第一个阶段是认清自己的方向,但是不完全知道路怎么走;第二个阶段是知道路上有些步子是对的,...

33410
来自专栏AI科技评论

业界|搜狗茹立云:AI产品构思指南

我们已经不是第一次提到,AI一方面炒的沸沸扬扬,一方面我们放眼望去,市场上居然看不到一个能让我们心服口服的,用AI技术支撑起来的产品。AI出问题了吗?Alpha...

3378
来自专栏专知

日本将用人工智能预测犯罪事件及交通事故

新华社东京2月9日,日本神奈川县警方将利用基于数据分析和深度学习的人工智能系统,预测犯罪事件和交通事故并采取相应对策。这是日本警方首次开发预测犯罪事件和交通事故...

3685
来自专栏镁客网

情绪识别和虚拟现实可以碰撞出怎样的火花?

993
来自专栏DT数据侠

你踏破铁鞋想找的高性价比居住地,被他们用这个算法挖出来了 | DT Labo Online

上个月DT君空降深圳发布了《2017深圳城市大数据活跃报告》,发布现场可谓座无虚席。但由于现场时间有限,未能将报告更详尽地向大家解读,不少小伙伴对于整个报告的生...

480
来自专栏大数据文摘

苹果VS谷歌,可视化两厂所有专利后看创新模式差异

1674
来自专栏企鹅号快讯

姚期智教授:量子计算是千亿万亿级别的产业,或成为科技创新的引擎

清华大学(建筑学院)-中南置地数字建筑联合研究中心主办的“数字建筑与未来生活”跨界沙龙的系列活动,以对中科院院士、图灵奖得主姚期智教授的采访拉开序幕,采访者为清...

1859

扫描关注云+社区