首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【福布斯】O‘reilly人工智能大会,LeCun 等解读人工智能12大痛点

【福布斯】O‘reilly人工智能大会,LeCun 等解读人工智能12大痛点

作者头像
新智元
发布2018-03-26 14:13:33
6560
发布2018-03-26 14:13:33
举报
文章被收录于专栏:新智元新智元

【新智元导读】如今人工智能发展到底处于何种状态,面临哪些难点,未来发展潜力如何?参加了O‘reilly人工智能大会的行业专家Gll Press带来了他的12个观察。他提取的观点主要来自Peter Norvig、Yann LeCun等顶级人工智能专家,另外,还有来自微软、英伟达和艾伦人工智能研究院的主管级专家。12个观察包括: AI是黑箱;AI具有高技术难度;无人车可能使开车变成人的业余爱好;AI需考虑文化和背景——训练影响学习;AI不会取代人的所有工作;AI不会使人类灭亡;AI不是魔法,深度学习很有用,但有局限;AI是增强的智能,同时具有人类和机器的强处;AI改变了我们与计算机的交互方式;AI需有更聪明的测试,图灵测试不够;丘吉尔对AI的观点;唯物主义范式下徒劳地追求人类水平的智能可能阻碍AI的发展。

本年度的O‘reilly人工智能大会上,39家机构的66名AI从业者就当下的AI发展状况进行介绍:从聊天机器人到深度学习、再到自动技术和情感识别,以及自动化工作和AI进步的阻碍,甚至拯救生命和商业机会等话题都有涉及。本次会议由Peter Norvig 和 Tim O’Reilly 担任程序委员会主席。以下是参会者Gll Press 的参会观察。

Gll Press 是一家咨询公司的管理合伙人,福布斯网站作者。他的这篇文章是参加O‘reilly 人工智能大会之后的总结,提炼了12个对目前AI行业的观察,比如,黑箱问题、深度学习局限性在哪、人机交互问题、AI的冬天等等。

1. AI是一个黑箱:trust-but-verify的破解方法

Google研究总监PeterNorvig曾说,“与传统软件相反,机器学习生产的不是代码,而更像是一个黑箱——你能稍微窥探到里面,对里面正在发生的事情有一些了解,但看不到全貌。”

Tim O’Reilly最近在他的一篇博客文章中写道:“由于很多正在重塑我们的社会的算法是黑箱…在深度学习领域中,由于它们甚至对它们的创造者来说都难以理解,因此问题的关键是信任。当今世界的重要学科是在不了解算法所遵循的确切的规则的情况下理解怎样评估算法。”

O’Reilly提出算法值得信任但要验证(trust-but-verify)的方法,四条规则:预期结果是已知的,外部观察可验证结果;如何测量“成功”是明确的;算法的创作者和使用者的目标具有一致性;并且该算法有助于创作者和使用者做出更好的长期决策。

2. AI具有高难度,理想与现实还有差距

我们都想要一个能处理所有家务的机器人(Rosie),但是我们得到的只是一个扫地机(Roomba)。

艾伦人工智能研究院的CEO Oren Etzioni 在大会上列举了让机器变得更像人这一努力所遇到的困难,即使是一些“智能”的机器。比如,“人呼吸空气(people breath air)”是一个简短的陈述,但是却很难让机器理解。

Etzioni此前在华盛顿大学获得终身教职,他现在领导艾伦人工智能研究院,其主要的任务是让AI 至少能展示对词或者图像的某种程度的理解,而不仅仅是计算标签对象的接近性。

作为纽约大学的教授、Facebook AI 实验室的主管,LeCun 在把深度学习用于解决现实问题上进行了深入的研究。在Facebook,每天有100至150万图片上传(还不包括Instagram、WahtsAPP 和 Messenger)。他在演讲中提到,每一张图片一经上传就会立刻通过两层的卷积神经网络,一层用于识别图像中的物体,另一层则识别人。每一个传到Facebook 上的视频也会经历同样的过程。

他们分享的经验表明了智能机器现在能做到什么,同时也凸显了要接近人类水平的智能,还有很大的挑战需要克服。Lecun说,如果机器要如此智能地行动,需要“对环境和其中的物体功能有一个完整的复制,这样就能产生一系列的行动,并预测它们会对环境产生的影响”。为了实现这一目标,机器学习理解环境是如何起作用的,学习大量的背景知识,感知任何特定时刻的环境状态,并且能进行推理和计划。简而言之,LeCun的终极目标是希望能实现从“监督式学习”到“无监督学习”的过渡。LeCun说:“难点在于,在确定性中进行预测。”

Peter Norvig解释了为什么机器学习要比传统的软件更难。他说:“缺乏清晰的障碍摘要”——去除Bug更加难,因为把Bug区分出来;“非模块性”——稍微改动小部分东西,最终会把所有的东西都改变;“非固定性”——需要考虑新的数据;“数据归属”——围绕隐私、安全和公平的议题以及缺乏足够的工具和处理,既有的许多工具都是为传统软件设计的。“机器学习会让你速度变快”,Norvig 总结说,“但是当你变得很快,问题出现的速度也会相对加快”。纽约大学的Gary Marcus 对AI发展面临的巨大挑战有经典总结:我们都想要一个能处理所有家务的机器人(Rosie),但是我们得到的只是一个扫地机(Roomba)。

3. 我们可能是最后一代拥有汽车的人

美国运输部秘书长Foxx 在最近的一次演讲中宣称:“我们可能是最后一代拥有汽车的人。”在这次会议中,NVIDIA副总裁兼总经理Jim McHugh宣称“第一个AI机器人是汽车”。McHugh承诺自动驾驶汽车会让驾驶更安全,“具备AI的汽车随时能思考、能集中精神,随时观察周围的环境,而且永不会疲劳。它会拥有超人的力量,让我们远离危险。”

Lux Capital的ShahinFarshchi也表达了类似的观点,它认为政府推迟对自动驾驶汽车的批准已经危及了许多人的生命,因为人开车的本领实在太糟糕了。他说,“AI的障碍很低,”即使采用“还不完美的自动驾驶汽车”也能挽救许多生命。

然而,正如Tom Davenport所说,“很多人情愿被另一个人杀死,而不想被机器杀死。”自动驾驶汽车的安全记录中也有“例外”,与人类的大量驾驶事故相比,自动驾驶的这些事故会被忽略吗?还是发生几次严重事故会让政府继续延缓批准自动驾驶?

Peter Norvig以自动驾驶为例阐述了有关AI安全性的两个问题,其一是“安全勘探”——自动驾驶汽车如何在现实世界(而不是在实验室中模拟驾驶)中如何做出安全决策。而且考虑到AI的“黑盒”性质,我们如何验证它们确实是安全的?第二个问题被他称为“不注意谷”(inattentionvalley),就是说,如果一辆自动驾驶汽车的准确度是50%,人类驾驶员会随时警惕,随时准备着接管驾驶;但当准确度达到99%,人就不会随时准备着,当需要人类接管时可能来不及。

Etzioni说,自动驾驶汽车已经减少了许多事故,而且可以更有作为。他预计25年后,开车会成为一种业余爱好。

4. AI需要考虑文化和语境——“训练影响学习”

英特尔院士、英特尔互动与体验研究总监Genevieve Bell表示:“当前的许多算法已经在其内部形成一个国家、一种文化。”由于今天的智能机器(仍然)只来自人类的创造,并由人类使用,文化和语境是算法开发中的重要考虑因素。Rana El Kaliouby(情感感知AI的创业公司Affectiva的CEO)和AparnaChennapragada(Google产品管理总监)强调了使用多样化的培训数据的重要性——如果你想让智能机器可以在地球上的任何地方工作,就必须适应任何地方的文化习俗。

“训练影响学习——你放入的训练数据决定能得出的结果。”Chennapragada说。而且不仅文化会影响,上下文语境也很重要。她用“我爱你”为例解释,各种各样的对话都常常以这句话作为结束,但这句话不应该用作AI驱动的企业电子邮件系统的培训数据。

微软研究院杰出工程师兼总经理Lili Cheng谈到微软成功的聊天机器人“小冰”(在中国和日本有4000万用户)和失败的聊天机器人Tay(最初在Twitter上发布,但在被Twitter用户使用煽动性推文训练后下架)。他认为语境非常重要——公开对话(Tay的情况)对比小范围对话;以及文化的影响——一种“强调个性,人vs机器”的美国(西方)文化和认为“万物有灵”的亚洲文化很不一样。

5.AI不会取代人类的所有工作——“问题取之不尽”

Tim O'Reilly列举了人类未来仍然不会失业的理由:1. 工作职位不会用尽,因为问题取之不尽。2. 当某些事物变成商品,其他事物会变得更有价值。随着AI越来越把我们今天所做的工作变成一种商品,我们应该期待新的事物将变得更有价值。3. 经济转型需要时间和努力。

奥巴马总统的观点:“如果利用适当,AI可以带来巨大的繁荣和机会。但它也有缺点,就是我们必须找到避免AI消除我们的工作机会的方式。它可能会加大不平等,也可能压低工资。”

6.AI不会使人类灭亡——“AI会让人类更强”

Oren Etzioni在“设计符合我们的法律和价值体系的AI系统”一文中提出开发多个AI系统来互相检查、彼此平衡。在这次会议上,Etzioni引用Andrew Ng说:“努力阻止AI转向邪恶,就像破坏太空计划以防止移民火星的人口过多。”Etzioni总结道:“AI不会消灭我们,AI将让我们更强……应该关心的问题是AI对工作的影响。我们应该讨论不是人类灭亡之类的场景。”

然而,YouGov最近代表英国科学协会进行的一项调查发现,36%的英国公众认为AI的发展对人类的长期存续构成威胁。在被问及 “为什么那么多著名的科学家和工程师都对AI的威胁提出警告?”时,Etzioni回答说:“我很难推测像斯蒂芬·霍金(Stephen Hawking)或伊隆·马斯克(Elon Musk)这些大人物如此担心AI的动机。我猜测,谈论黑洞很快又会变得无聊,因为这个话题发展非常缓慢。”

对付无聊的方式之一是新的开创性的研究中心的建立,如最近成立的Leverhulme 未来智能中心(Leverhulme Centre for the Future of Intelligence,LCFI),该中心获Leverhulme信托1000万英镑资金,将专注于探索“这种潜在的划时代的技术(即AI)发展的机遇和挑战。”霍金参加了其开幕式。

7. 深度学习很有用,但有局限

有一把好的梯子并不一定能让你登上月球。

“对于数据来说,深度学习是一种更大层级的技术”,Nervana 联合创始人兼CEO Naveen Rao说,“从这个意义上来说,‘智能’就是在数据中寻找结构的能力”。英伟达的Jim McHugh 说得更加宽泛:“深度学习就是一种新的计算模型”。

Oren Etzioni 曾就Wire 上写AlphaGo 的文章发表评论:“人们常常把深度学习描述为一种对人类大脑的模拟。但是,实际上,它只是简单的数学执行,只不过规模很大罢了”。

Tom Davenport 在会上说:“深度学习并不是深刻地学习”。

在演讲中,Etzioni 建议可以去问 AlphaGo 以下几个问题:你能复盘吗?(不能,除非有人按动开关);你能玩扑克吗?(不能);你能过马路吗?(不能,这只是一个狭义的目标程序);你能跟我们讲述一下这场对弈吗?(不能)

Etzioni 说,深度学习是一种“有局限的机器学习技术,在一系列狭义的问题上可以却得卓越的成绩,比如语音识别和下围棋。在我们拥有大量的标签数据的情况下,深度学习会特别有用。但是,在一些特定任务上超越人类并不代表在总体上达到了人类水平的表现。今天的机器学习中,有99%的工作需要人来完成。”

在被问及“为什么深度学习会取得如此好的效果?”Marcus说,很多聪明的人都相信深度学习近乎魔术,但是我不是。深度学习缺乏随机关系的表征方式、在逻辑推理表现上没有清晰的方式、在加入抽象知识上还有很长的路要走。“虽然目前的投入很大,有数十亿美元,但是这些难题依然存在,一把好的梯子并不一定能让你登上月球”,Marcus 说。

8. AI 是增强智能——既依赖机器也依赖人类

Tom Davenport 在演讲中建议人应该与机器一起向前发展,而非相互对抗,他对各大机构也有一个很重要的建议——建立一个新的职位CAO(首席增强管),负责挑选正确的AI技术用于特定的任务,安排好人与机器的协作。

Tim O’Reilly 说,如果人和机器是竞争关系,那么二者都会被淘汰。Peter Norvig提到,如何把人类的专业知识和洞见融入AI系统中,是一个巨大的挑战。

9. AI 改变了人机交互的方式——但是需要大量的情感

Tim O‘Reilly最近写到:我们正在接近一个拐点,其中语音用户交互将会改变整个科技行业的势力分配。

更具体地说,我们需要“重新思考通过语音实现导航的基础”,微软的Lili Cheng说。在我们今天使用的交互系统中“返回”与“Home”键设置是非常关键的。如果要一种对着设备说“返回,返回,返回”,这真的很奇怪。

Cheng 认为对话就像一股浪潮,“一直都在向前”,但是这对使用台式电脑的用户来说是很难控制的。为了让AI 更好地模仿人类认识周围环境的方式,我们可以把对话作为一个很好的测试标准,Cheng说。

要像人一样理解世界,其中一个关键就是感情。为了这一目标,Affectiva 已经筹建了世界上最大的情感资料库,分析了超过470万人脸和500亿情感数据,覆盖75个国家。

情感是AI领域的一个新芽。但是我更倾向于使用共鸣而非情感一词,以免让人对AI如今的发展水平产生不必要的误解。

10.应该摒弃图灵测试,尝试更好的测试方法

Gary Marcus 指出,现在的研究都在关注解决短期的发展,而不是“真正的难题”。在一些领域确实获得了指数级的发展,但是在强大的、通用的人工智能上,几乎没有任何进展。他说,AI 社区应该追求更多远大的目标:“传统的图灵测试太容易了”。他推荐了另一种测试方法:Domino 测试——使用无人机或者无人车往任意地点派送Pizza,正如一个普通的孩子能做到的那样。

LeCun提出了另一种测试“智能”或者自然语言理解的方法——Winograd Schema,用于衡量机器对世界的了解。几个月之前,Nuance Communications赞助了第一届Winograd Schema挑战赛,结果显示,机器在句子中代词的理解上准确率为58.33%,人类水平为90.9%。

11.丘吉尔对AI的启示

Peter Norvig:“丘吉尔对民主的解释也可以借用到机器学习上,除非所有的人都尝试过,否则它可能是世界上最糟糕的系统”。

Oren Etzioni:“改编下丘吉尔的名言:深度学习并不是终点,它也不终点的开始,它甚至不是开始的终点”。

12.在物质主义范式内徒劳地追求人类水平的智能,对AI的发展可能会是一个持续的阻碍

Gary Marcus 对NIPS上发表的论文有诸多不满,他说,这些论文就像炼金术一样,每次只在一个神经网络上增加一层 或者两层,“都是些小修小补”。他建议要有“更丰富的基础计算指导”,还说,“是时候产生一些天才的创意了”。

当被问及,“我们什么时候能看到人类水平的AI?”,Etzioni 回答:“我也不知道”。在他自己所做的对AI 专家的调查中,他的答案是25年。他解释说:我是一个物质主义者,我相信世界是由原子构成的,所以我不站在“绝对造不出”那一阵营。

认为智能由原子构成,并是可以计算的,这一概念是一种主流的范式。 马文·明斯基曾有一句经典名言:“人类的大脑就是一台计算机,只不过是由肉构成的罢了”。

但是,是不是就是这种范式导致AI 进入了“冬天”?是不是可能,我们的大脑并不是计算机,计算机的原理与大脑也不像?如果我们最终能放弃想要在计算机中复制“人类水平的智能”,也许我们能有一些额外的发现,也就是“狭义”的应用,让计算机能改善并丰富人类的生活。

编译来源:http://www.forbes.com/sites/gilpress/2016/10/31/12-observations-about-artificial-intelligence-from-the-oreilly-ai-conference/#28b0ffda4ef9

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-11-01,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
腾讯云小微
腾讯云小微,是一套腾讯云的智能服务系统,也是一个智能服务开放平台,接入小微的硬件可以快速具备听觉和视觉感知能力,帮助智能硬件厂商实现语音人机互动和音视频服务能力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档