赫尔辛基大学AI基础教程:关于预测未来(6.1节)

AiTechYun

编辑:chux

我们将首先谈谈已知最难的问题之一:预测未来。

说些你可能会感到失望的话,我们不是巫师,不会有一个水晶球可以向我们展示未来世界会是什么样子,以及AI如何改变我们的生活。

作为科学家,我们经常被要求提供预测,并且如果我们拒绝提供任何预测就会面对别人的白眼(“没用的学术”)。但实际上,我们主张任何声称了解AI未来及其对我们社会影响的人都应该受到怀疑。

现实中扭曲的领域

然而,并非所有人都对自己的预测持保守态度。在现代世界里,夸张标题更受欢迎并且由于必须将新闻解析为280个字符,保留信息缺失,并且简单和引人注目的信息被放大。而公众对人工智能的感觉受此影响,认为这才是对的。

注:

从乌托邦的幻想到可怕的预言

媒体领域被极端主导。我们开始看到AI名人,支持某个伟大的想法,并对人工智能的未来做出类似神谕一样的预测。媒体喜欢他们清晰的信息。一些人承诺我们会有一个乌托邦式的未来,其指数增长和万亿美元的新兴产业,真正的人工智能可以解决我们自己无法解决的所有问题,人类根本无需工作。

还有人声称,掌握人工智能可以统治世界。其他人做出更加惊人的声明,人工智能标志着人类的终结(大约20-30年后),生命本身将在人工智能时代发生变化,而人工智能是对人类生存的威胁。

虽然少部分的一些预测实现了,但其他大部分预测只是证明了预测有多难,而且许多预测没有多大意义。我们目的是让你能够看到这些预测,并能够批判性地评估它们。

刺猬和狐狸

“ 超预测:预测未来的艺术与科学”一书的作者,政治学家菲利普·泰洛克将人们分为两大类:那些拥有一个大想法的人(“刺猬”)和那些有许多小想法(“狐狸”)的人。Tetlock在1984年到2003年间进行了一项实验,可以帮助我们确定哪些预测可能是准确的,哪些可能不是。其中一个重要的发现是,狐狸比刺猬更善于预测,尤其是在长期预测方面。

可能用280个字符表达的信息往往是大而简单的刺猬思想。我们的建议是注意仔细论证和平衡的信息来源,并对那些总是用一个论证继续解释所有事情的人持怀疑态度。

预测未来也许很困难,但至少我们可以思考过去和现在的AI,通过理解它们,以期为未来做好更好的准备,无论结果如何。

AI寒冬

人工智能的历史与其他许多科学领域一样,见证了各种不同的趋势。在科学哲学中,用于趋势的术语是范式(paradigm)。通常情况下,大多数研究团体都采用了特定的范式,并提供了关于近期进展的乐观预测。例如,在20世纪60年代,人们普遍认为神经网络通过模仿自然界的学习机制,尤其是人类大脑来解决所有AI问题。下一件大事是基于逻辑和人类编码规则的专家系统,这是20世纪80年代的主流范式。

炒作的周期

在每一波浪潮开始时,一些早期的成功故事会让每个人都感到兴奋和乐观。这些成功的故事,即使它们可能处于受限制的领域并且在某些方面并不完善,但也并不妨碍成为公众关注的焦点。许多研究人员涌入人工智能,或至少称他们研究人工智能,以获得更多的研究经费。公司也因为措施恐惧症(FOMO)而在AI领域发起并扩大他们的努力。

到目前为止,每次人工智能的全面通用的解决方案都被认为触手可及,进展却通常被卡在难以克服的问题上,而这些问题当初人们会认为它是个很小的问题。就20世纪60年代的神经网络而言,这个小问题与处理非线性性和解决机器学习问题的神经网络架构所需参数越来越多有关。而对1980年代的专家系统而言,小问题与处理不确定性和常识有关。经过多年的挣扎并没有满足的承诺之后,随着剩下的问题真正本质的显现,所积累的悲观范式不断累积和AI的寒冬随之来临:人们对该领域的兴趣动摇了,研究转向了其他领域。

现代的AI

目前,大约从世纪之交开始,人工智能又一次开始抬头。现代人工智能方法倾向于将问题分解为一些较小的,独立的和明确定义的问题,并逐一解决问题。现代人工智能绕过了关于智力,思想和意识等过深的问题,专注于在现实世界问题中构建实际有用的解决方案。对于所有可以从这些解决方案中受益的人来说,这是个好消息。

现代人工智能方法的另一个特点,与在复杂而混乱的现实世界中工作密切相关,是处理不确定性的能力,我们通过在第3章中研究人工智能中概率的使用来证明这一点。最后,神经网络的回归和深度学习技术能够比以前更好地处理图像和其他真实世界数据,这极大地推动了目前人工智能的上升趋势。

注意

那么我们在炒作周期?

历史是否会重演,当前的繁荣是否会伴随着下一场人工智能的寒冬,这是一个只有时间才能说明的问题。即使它会到来,更好、更好的解决方案的进程停滞不前,人工智能在社会中的重要性也将持续下去。由于专注于解决实际问题的有用解决方案,现代人工智能研究现在已经取得成果,而不是试图首先解决有关通用智能这样的大问题 – 这正是早期尝试失败的地方。

预测1:AI将继续环绕在我们身边

回顾一下,我们开始通过讨论影响我们生活中突出的AI应用来讨论人工智能的研究。我们强调了三个例子:自驾车,推荐系统以及图像或视频处理。在此过程中,我们还讨论了一系列有助于持续技术转型的其他应用。

注:

AI有所作为

由于注重实用性而不是大问题,我们过着被人工智能包围的生活(即使我们大多数时候可能不知道它):我们听的音乐,我们在网上购买的产品,电影我们观看的系列节目,我们的交通路线,甚至是我们现有的新闻和信息,都越来越多的受到人工智能的影响。更重要的是,从医学,天体物理学到中世纪史的基本上任何科学领域,都在采用人工智能的方法,以加深我们对宇宙和我们自己的理解。

预测2:终结者不会来临

与人工智能的未来相关的最流行也最执着的想法之一就是终结者。如果你不太了解,我可以告诉你它是一个残酷的类人机器人的形象,那个机器人的金属骨架和猩红的眼睛(大概就是这样)。终结者是导演詹姆斯·卡梅隆1984年导演的电影。在这部电影中,一个名为天网的全球人工智能驱动的防御系统意识到自己的存在,并用核武器和先进的杀人机器人将大多数人类杀掉。

注意

两个世界末日的场景

有两种可能导致终结者的出现,或者其他可怕的机器人起义。第一种,就像1984年电影的故事,一个强大的人工智能系统变得有自我意识,并决定它真的真的很不喜欢人类。

第二种,机器人军队由没有自我意识的智能AI系统控制,该系统原则上处于人为控制。例如,该系统可以进行编程,以优化回形针的生产。这听起来是无害的,对吧?

但是,如果系统拥有卓越的智能,它将很快达到可用资源(如能源和原材料)允许的回形针生产的最高水平。在此之后,可能会得出结论,需要将更多资源用在回形针制作。为此,它可能需要防止将资源用于其他目的,即使这个目的对人类文明至关重要。实现这一目标的最简单方法是杀死所有人,之后就可以为系统的主要任务 – 回形针的生产提供更多的资源。

为什么这些情景是不现实的

上述两种情况都不太可能发生,而且只会属于科幻小说,而不是对人工智能未来的严肃推测,原因有很多。

原因1:

首先,认为超智能,有意识可以战胜人类的人工智能是人工智能方法发展的一个意外的结果,这种想法是天真的。正如你在前面章节中看到的,人工智能方法不过是自动推理,基于完全可以理解的原理和大量输入数据的组合而成,这两者都需要人类或人类部署的系统提供。想象一下,最近邻分类,线性回归,AlphaGo游戏引擎,甚至是一个深度神经网络都可能变得有意识,并进化成一个超级智能的AI,这可能非常需要想象力。

注意,我们并不是说建立人类级的智能是绝对不可能的。你只需要看看真实的AI就可以看到高智能物理系统可能性的证明。重复我们所说的话:超级智能不会从开发窄的人工智能方法并将其应用于解决现实世界的问题中出现。

原因2:

其次,那些相信超智能AI的人最喜欢的想法之一就是所谓的奇点:一种对自身进行优化和重组的系统,能够以不断加速的指数速度提高自身的智能水平。这样的超智能将把人类远远甩在后面,我们就像蚂蚁一样,可以毫不犹豫地被消灭。指数智能增长的想法是不现实的,原因很简单,即使系统可以优化自己的工作,它仍然会面临越来越多的难题,会减缓其进步,就像人类科学家的进步需要更多的努力以及整个研究社区乃至整个社会的资源一样,而超级智能实体无法获得这些资源。人类社会仍然有能力决定我们使用技术,甚至是AI技术的目的。技术确实给了我们很大的力量,所以每次我们在人工智能技术上取得进步,我们就会变得更强大,更善于控制任何潜在的风险。

注意

价值对齐问题

回形针的例子被称为价值对齐问题:指定系统的目标,使它们符合我们的价值观是非常困难的。假设我们创建了超级智能系统,可以击败试图干扰其工作的人。我们有理由假设这样一个系统也足够聪明,可以意识到,当我们说“给我做回形针”时,我们并不是真的想把地球变成一个行星级的回形针工厂。

区分好故事与现实

总而言之,终结者是一部很棒的电影,但却不是个值得恐慌的现实问题。它是一个噱头,一个简单的方法来获得很多关注,是记者们提高点击率的宣传海报,消遣娱乐的东西,而不是像核武器、缺乏民主、环境灾难和气候变化这样无聊但真实的威胁。事实上,终结者所面临的真正威胁是将注意力放在终结者身上而不是实际存在的问题中,其中有些问题涉及人工智能,有些不涉及。我们会在后面讨论AI带来的问题,但必须记住的是:忘掉终结者,还有更重要的事情要关注。

练习24:对AI的感觉是什么?

在这个练习中,我们希望你思考一下人工智能是如何被描述的。在网上搜索“人工智能”这个词,看看会出现什么类型的图片。从图像搜索结果中,你对人工智能的总体印象是什么?这是AI的准确表示吗?为什么?

原文发布于微信公众号 - ATYUN订阅号(atyun_com)

原文发表时间:2018-06-15

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏人工智能头条

成为一名 AI 工程师永远都不晚

1533
来自专栏钱塘大数据

【盘点】数据挖掘师,这十大思维原理你具备吗?

十大思维原理:1.数据核心原理、2.数据价值原理、3.全样本原理、4.关注效率原理、5.关注相关性原理、6.预测原理、7.信息找人原理、8.机器懂人原理、9....

2965
来自专栏AI科技评论

线性资本王淮:明年人工智能泡沫将达到顶点

虽然说当下几乎各行各业都在拥抱人工智能,但你是否知道人工智能曾经有过一段时间被忽视,且只能以数据挖掘、机器学习等其他称呼来进行代替? ? 近日由网易科技和网易智...

2969
来自专栏DT数据侠

你忙着追热点了解世界,有人却在用阅读大数据了解你 |DT Labo Online

前不久,DT君请来了今日头条算数中心汽车数据的负责人朱凌(朱大哥),带小伙伴们探索了汽车和手机行业阅读大数据背后的商业应用场景。当我们每天用手机浏览、转发、收藏...

750
来自专栏BestSDK

如何培养“产品感”?

产品界,有一个特别虚幻的名词:“产品感”,这个词经常被人挂在嘴边(呵呵哒,也包括我)。 比如: 面试结束后,HR问你,这个小朋友怎么样啊? 你回答:产品感不好。...

3107
来自专栏量子位

如何设计一个不讨人厌的AI?“恐怖谷”了解一下

1142
来自专栏新智元

​为什么 2015 是人工智能突破性的一年

人工智能在经过了5年突破性的发展,2015年是人工智能发展的一个里程碑。计算机已经变得更加的精巧并且学习速度比以前更快。 谷歌的高级研究员Jeff Dean说...

4018
来自专栏大数据文摘

独家专访 | 微软郑宇:这个时代不缺数据,缺得是不够开放的思维

2576
来自专栏AI科技评论

干货 | AI 时代不得不提的「恐怖谷」

随着AI时代的到来,越来越多的智能设备进入了我们的生活。它们在给我们带来更多功能和便利的同时,也被赋予了更多“人性化”的特征。面对这么多越来越“像人”、越来越“...

962
来自专栏人工智能头条

【CCAI 2016专访】今日头条李磊:研发不能只靠有监督学习 知识表示框架是未来AI核心

2277

扫码关注云+社区