人工智能基础(高中版)教材补充和资源分享之一 无限光明的未来、过去和现在

这些天,抽空读了一下人工智能基础(高中版),觉得作为高中科普教材,还是非常不错的,五星好评推荐。

下面会针对每一章的内容,依据兴趣等补充一些资料。

2018年10月更新链接(人工智能开放课程,点击红旗就是中文版):https://github.com/Yorko/mlcourse.ai

大纲

这是medium.com上发布的文章列表 

,habr.com 

和jqr.com 

。图标是可点击的。此外,还提供了Kaggle Kernels(英文)的链接。这样就可以在不安装单个包的情况下重现所有内容。

  1. 使用Pandas进行探索性数据分析 

Kaggle Kernel

  1. Python的可视化数据分析 

,Kaggle Kernels:part1part2

  1. 分类,决策树和k近邻 

Kaggle Kernel

  1. 线性分类和回归 

,Kaggle内核:第一部分第2部分第三部分第四部分PART5

  1. 套袋和随机森林 

,Kaggle Kernels:part1part2part3

  1. 特征工程和特征选择 

Kaggle Kernel

  1. 无监督学习:主成分分析和聚类 

Kaggle Kernel

  1. Vowpal Wabbit:学习千兆字节的数据 

Kaggle Kernel

  1. 使用Python进行时间序列分析,第1部分 

。用Facebook Prophet预测未来,第2部分

,Kaggle Kernels:part1part2

  1. 渐变提升 

Kaggle Kernel

讲座

视频选择会上传到此 YouTube播放列表。

介绍,视频幻灯片

  1. 使用Pandas进行探索性数据分析,视频
  2. 可视化,EDA的主要情节,视频
  3. 决策树:理论实践部分
  4. 逻辑回归:理论基础实践部分(“爱丽丝”竞赛中的基线)

分配

  1. 与熊猫,nbviewer的奥运会探索性数据分析。截止日期:10月14日21:59 UTC + 2
  2. 美国航班的探索性数据分析, nbviewer。截止日期:10月21日21:59 UTC + 2
  3. 决策树。nbviewer。截止日期:10月28日21:59 UTC + 2。可选:实现决策树算法,nvbiewer(没有webforms和信用,相同的截止日期)
  4. Logisitic回归。nbviewer。截止日期:11月4日21:59 UTC + 2

这些是演示版本。仅仅是为了练习,它们对评级没有影响。

  1. 使用Pandas,nbviewerKaggle Kernel进行探索性数据分析
  2. 分析心血管疾病数据,nbviewerKaggle Kernel
  3. 带有玩具任务的决策树和UCI成人数据集,nbviewerKaggle Kernel
  4. 线性回归作为优化问题,nbviewerKaggle Kernel
  5. Logistic回归和随机森林中的信用评分问题,nbviewerKaggle Kernel
  6. 在回归任务,nbviewerKaggle Kernel中探索OLS,Lasso和Random Forest
  7. 无监督学习,nbviewerKaggle Kernel
  8. 实现在线回归,nbviewerKaggle Kernel
  9. 时间序列分析,nbviewerKaggle Kernel
  10. 渐变助推和航班延误,nbviewerKaggle Kernel

Kaggle比赛

  1. 如果可以,请抓住我:通过网页会话跟踪检测入侵者。Kaggle Inclass
  2. 你的中篇文章有多好?Kaggle Inclass

评分

在整个课程中,我们维持学生评分。它考虑了作业和Kaggle比赛中获得的学分。优秀学生(根据最终评级)将列在特殊的Wiki页面上。

社区

学生之间的讨论在OpenDataScience Slack团队的#mlcourse_ai频道进行。填写此表单以获取邀请。表格还会问你一些个人问题,不要犹豫

更多信息

mlcourse.ai

该课程是免费的,但您可以通过对Patreon的承诺来支持组织者

首先是封面:

接着,是一段“肺腑之言”,我觉得蛮好的,“感人至深”:

----第一章----

看完第一章,对人工智能和机器人的未来充满向往和信心啊。

先展望未来,再回顾历史,接着讲解当下人工智能的应用和概念与方法。

1.1 补充如下

-

-

-

-

-

-更多精彩,链接:http://i.youku.com/zhangrelay-

1.2 补充如下(中英对照,人工智能历史),雷锋网推荐(https://www.leiphone.com/)读懂智能和未来:

中文:https://zh.wikipedia.org/wiki/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E5%8F%B2

英文:https://en.wikipedia.org/wiki/History_of_artificial_intelligence

这段比书中内容更全面的。人工智能机器翻译部分在文末。

1.3补充如下

这里推荐一个知乎问答:人工智能在生活中的应用有哪些?链接如下:

https://www.zhihu.com/question/62512060

1.4 补充如下

这里还是推荐一个知乎问答:人工智能、机器学习和深度学习的区别?链接如下:

https://www.zhihu.com/question/57770020

如下图片来源于上述链接:

1.5 补充如下

有人会问,中小学阶段是否适合开始人工智能等课程?

我不列举欧美日等国家的示例了,只看隔壁韩国,高中的机器人编程课,2010年开设的夏令营,是的2010年!:

----豆瓣点评----

----

人工智能的历史

维基百科,自由的百科全书

跳转到导航跳转到搜索

参见:人工智能的时间表进展人工智能

人工智能

主要目标

知识推理

规划

机器学习

自然语言处理

计算机视觉

机器人

人工智能

途径

象征

深入学习

贝叶斯网络

进化算法

哲学

伦理

存在风险

图灵测试

中国的房间

友好的AI

历史

时间线

进展

AI冬天

技术

应用

项目

编程语言

词汇表

词汇表

计算的历史

硬件

1960年以前的硬件 硬件20世纪60年代到现在

软件

软件 Unix的 免费软件和开源软件

计算机科学

人工智能 编译器构建 计算机科学 操作系统 编程语言 突出的先驱者 软件工程

现代的概念

通用CPU 图形用户界面 互联网 笔记本电脑 个人电脑 视频游戏 万维网

按国家划分

保加利亚 波兰 罗马尼亚 苏联集团 前苏联 南斯拉夫

计算时间线

1950年以前 1950-1979年 1980-1989 1990-1999 2000-2009 2010-2019 更多的时间表 ......

计算机科学词汇表

类别

v Ť Ë

软件

计算机科学

现代的概念

按国家划分

计算时间线

计算机科学词汇表

类别

人工智能AI)的历史始于古代,神话,故事和人造智慧的传闻赋予了工匠的智慧或意识; 正如帕梅拉麦考达克写道,AI开头是“一个古老的愿望,以伪造众神。” [1]

现代AI的种子是由古典哲学家种植的,他们试图将人类思维的过程描述为对符号的机械操纵。这项工作最终导致了20世纪40年代可编程数字计算机的发明,这是一种基于数学推理的抽象本质的机器。这个装置及其背后的想法激励了一些科学家开始认真讨论构建电子大脑的可能性。

领域人工智能研究成立在研讨会上的校园举行达特茅斯学院 1956年这些谁参加就成为人工智能研究的领导人几十年来在暑假期间。他们中的许多人预测,像一个人一样聪明的机器将存在于不到一代人的时间,并且他们被赋予了数百万美元来实现这个愿景。

最终显而易见的是,由于计算机硬件的限制,他们严重低估了项目的难度。1973年,为了回应James Lighthill的批评以及国会的持续压力,美国英国政府停止资助人工智能的无向研究,随后的艰难岁月后来被称为“ AI冬季 ”。七年后,日本政府的一个有远见的举措激励政府和行业向AI提供数十亿美元,但到了80年代末,投资者由于缺乏所需的计算机能力(硬件)而再次失去理想,从而失去了投资。

由于存在强大的计算机硬件,机器学习在学术界和工业界成功应用于许多问题,因此对AI的投资和兴趣在21世纪的头十年蓬勃发展。正如在以前的“ 人工智能夏季 ”中,一些观察者(如Ray Kurzweil [2])预测人工智能即将到来:一台智力超过人类能力的机器。

内容

  [ 隐藏 ] 

前体[ 编辑]

人工智能的梦想在印度的哲学中首先被想到,例如可追溯到公元前1500年的着名哲学传统Charvaka和公元前600年左右的尚存文献。McCorduck(2004)写道:“ 人工智能以这种或那种形式是一种渗透智力历史的想法,这是一个迫切需要实现的梦想,”在人类的神话,传说,故事,猜测和发条自动机中表达[3]

AI在神话,小说和猜测中[ 编辑]

主要文章:小说中的人工智能

机械人和人造生物出现在希腊神话中,如赫菲斯托斯皮格马利翁的 加拉蒂奥的金色机器人。[4]在中世纪,有秘密神秘或传言炼金放置到心物质的手段,如贾比尔Takwin巴拉赛尔苏斯 ' 侏儒拉比犹太勒夫傀儡[5]到19世纪,关于人造人和思维机器的想法在小说中得到发展,如玛丽雪莱弗兰肯斯坦卡雷尔恰佩克RUR(Rossum的通用机器人)[6]和推测,如塞缪尔·巴特勒的‘ 的机器中达尔文 ’。[7] AI一直是科幻小说融入当下的重要元素。

自动机[ 编辑]

主要文章:自动机

Al-Jazari的可编程自动机(1206 CE)

现实人形自动机是由工匠从每一个文明建设,包括兖石[8] 希罗[9] 加扎利[10] 皮埃尔·雅凯-德罗沃尔夫冈·冯·肯佩伦[11]已知最古老的自动机是在神圣的雕像古埃及希腊。忠实的信徒相信,工匠用非常真实的头脑灌输这些人物,能够有智慧和情感 - 爱马仕Trismegistus写道:“通过发现众神的本质,人类能够重现它。” [12][13]

正式推理[ 编辑]

人工智能的基础是人类思维过程可以机械化的假设。对机械或“正式”理论的研究有着悠久的历史。公元前第一个千年,中国印度希腊哲学家都开发出了形式演绎的结构化方法。他们的思想是几个世纪以来由哲学家们发展起来的,例如亚里士多德(他对三段论作了正式的分析),欧几里德(他的元素是一种形式推理的模型),al-Khwārizmī(他发明了代数并给出了他的名字“ 算法 ” )和欧洲学校哲学家,如奥卡姆威廉迪斯科斯特鲁斯[14]

马略卡哲学家Ramon Llull(1232-1315)开发了多种逻辑机器,专门用逻辑手段来生产知识; [15] Llull将他的机器描述成机械实体,它可以通过简单的逻辑操作来结合基本的和不可否认的事实,机器通过机械的意义产生这些逻辑操作,以产生所有可能的知识。[16] Llull的工作对重建他的想法的Gottfried Leibniz有很大影响。[17]

戈特弗里德莱布尼兹,他推测人类的理由可以归结为机械计算

在17世纪,莱布尼茨托马斯霍布斯笛卡尔笛卡尔探讨了所有理性思想都可以像代数或几何学那样系统化的可能性。[18] 霍布斯利维坦着名的着作中写道:“理性只不过是算账而已”。[19] 莱布尼茨设想了一种通用的推理语言(他的特征是普遍性的),这会减少论证到计算的程度,所以“两个哲学家之间不会有比两个会计师之间更多的争议,因为只需要他们的铅笔就足够了用手抚摸他们的脸谱,说出对方的话(如果他们喜欢的话,与朋友一起作为证人):让我们计算一下。“ [20]这些哲学家已经开始阐述物理符号系统假说,这将成为人工智能研究的指导性信念。

在20世纪,对数学逻辑的研究提供了重要的突破,使人工智能看起来似乎是合理的。这些基础是由布尔的 “ 思想定律”弗雷格的 “ 忏悔录 ” 等作品确定的。在弗雷格系统的基础上,拉塞尔怀特海德于1913年在他们的杰作“ 数学原理”中对数学基础进行了正式的处理。受到罗素成功的启发,大卫希尔伯特向20世纪20年代和30年代的数学家们挑战,回答这个基本问题:“所有的数学推理都可以形式化吗?” [14]他的问题由哥德尔不完整证明图灵机器教会Lambda演算回答。[14] [21]

ENIAC,摩尔电气工程学院。这张照片被人为地变暗,模糊了诸如在场的女性和正在使用的IBM设备等细节。[22]

他们的答案在两个方面都令人惊讶。首先,他们证明实际上,数学逻辑可以完成的限制。但其次(对AI更重要)他们的工作表明,在这些限制之内,任何形式的数学推理都可以被机械化。该教会图灵论题暗示的机械装置,重排,0和1作为简单的符号,可以模仿数学推导的任何可设想的过程。关键的洞察力是图灵机 - 一个简单的理论构造,它抓住了抽象符号操纵的本质。这项发明将激励少数科学家开始讨论思考机器的可能性。[14] [23]

计算机科学[ 编辑]

主要文章:计算机硬件的历史计算机科学史

计算机器建于古代,由许多数学家在历史上进行了改进,包括(再一次)哲学家戈特弗里德莱布尼茨。在19世纪初,查尔斯巴贝奇设计了一台可编程计算机(分析引擎),虽然它从未建成。Ada Lovelace推测,该机器“可能会制作任何复杂程度或范围的复杂而科学的音乐作品”。[24](她通常被认为是第一位程序员,因为她写的一组笔记完全详细描述了用引擎计算伯努利数的方法。)

第一批现代计算机是第二次世界大战的大规模破译机器(如Z3ENIACColossus)。后两种机器基于Alan Turing [25]奠定的理论基础,并由John von Neumann开发。[26]

人工智能的诞生1952-1956 [ 编辑]

IBM 702:第一代AI研究人员使用的计算机。

在20世纪40年代和50年代,来自各个领域(数学,心理学,工程学,经济学和政治学)的少数科学家开始讨论创造人造大脑的可能性。领域人工智能研究成立在1956年一门学科。

控制论和早期神经网络[ 编辑]

对思维机器的最早研究受到20世纪30年代末,40年代末和50年代初流行的思想汇合的启发。最近在神经病学上的研究表明,大脑是一种神经元的电网络,以全脉冲或无脉冲方式发射。诺伯特维纳控制论描述了电网中的控制和稳定性。克劳德香农信息理论描述了数字信号(即全或无信号)。阿兰·图灵计算理论表明任何形式的计算都可以用数字来描述。这些观点之间的密切关系表明,构建电子大脑是可能的。[27]

这方面工作的例子包括机器人,如W.格雷沃尔特海龟约翰霍普金斯野兽。这些机器不使用计算机,数字电子设备或符号推理; 它们完全由模拟电路控制。[28]

Walter PittsWarren McCulloch分析了理想化的人造神经元网络,并展示了他们如何执行简单的逻辑功能。他们首先描述了后来研究人员称之为神经网络的东西[29]PittsMcCulloch启发的学生之一是年轻的Marvin Minsky,后来是一名24岁的研究生。1951年(与Dean Edmonds一起),他建立了第一台神经网络机器SNARC[30] 未来50年,明斯基将成为人工智能领域最重要的领导者和创新者之一。

图灵的测试[ 编辑]

1950年,艾伦图灵发表了一篇具有里程碑意义的论文,其中他推测了创造思维机器的可能性。[31]他指出,“思考”很难定义和设计他着名的图灵测试。如果一台机器可以在一个会话(在携带电传打字机,这是从一个人的谈话没有区别),然后它是合理地说,机器是“思考”。这个简化版本的问题使得图灵有说服力地争辩说,一个“思维机器”至少是合理的,并且该论文回答了对该命题的所有最常见的反对意见。[32]所述的图灵测试人工智能哲学中的第一个严肃提议。

游戏AI [ 编辑]

1951年,使用费朗蒂马克1中的机器曼彻斯特大学克里斯托弗·斯特雷奇写了一个程序跳棋和迪特里希·普林茨写了一个国际象棋。[33] 阿瑟·塞缪尔的跳棋程序,在50年代中期和60年代初开发,最终取得了足够的技能来挑战一个体面的业余爱好者。[34] 游戏AI将继续被用作在其整个历史中AI进步的措施。

符号推理和逻辑理论家[ 编辑]

数字计算机在五十年代中期成为可能时,一些科学家本能地认识到,一个可以操纵数字的机器也可以操纵符号,操纵符号很可能是人类思想的本质。这是创造思维机器的新方法。[35]

1955年,Allen Newell和(未来的诺贝尔奖获得者)Herbert A. Simon创立了“ 逻辑理论家 ”(在JC Shaw的帮助下)。该计划最终将证明罗素怀特黑德的 原理Mathematica中的前52个定理中的38个,并为一些人找到新的更优雅的证明。[36]西蒙说,他们“解决了古老的思想/身体问题,解释了由物质组成的系统如何具有心智的属性。” [37] (这是哲学立场的早期声明约翰塞尔后来称之为“ 强AI“:机器可以像人体一样包含思想。)[38]

达特茅斯会议1956年:AI的诞生[ 编辑]

达特茅斯会议的1956年[39]是由有组织的马文·明斯基约翰·麦卡锡:和两位资深科学家克劳德·香农弥敦道罗切斯特IBM。会议的提案包括这样一种说法:“学习的每一个方面或者智力的任何其他特征都可以被精确地描述,以便机器可以被模拟出来”。[40]参加者包括Ray SolomonoffOliver SelfridgeTrenchard MoreArthur SamuelAllen NewellHerbert A. Simon,他们都会在人工智能研究的头几十年中创造出重要的计划。[41]在会议上,纽厄尔和西蒙首次推出了“ 逻辑理论家”,麦卡锡说服参加者接受“人工智能”作为该领域的名称。[42] 1956年达特茅斯大会是AI获得其名称,使命,首次成功和主要参与者的时刻,并被广泛认为是人工智能的诞生。[43]

1956-1974年的黄金岁月[ 编辑]

达特茅斯大会之后的几年是一个发现的时代,在新的领域不断前进。对于大多数人来说,在这段时间开发的程序只是“惊人的”:[44]计算机正在解决代数字问题,证明几何学中的定理和学习说英语。很少有人会相信机器的这种“智能”行为是可能的。[45]研究人员在私人和印刷品中表达了强烈的乐观情绪,预测一个完全智能的机器将在不到20年的时间内建成。[46]DARPA这样的政府机构将资金投入新的领域。[47]

工作[ 编辑]

在50年代末和60年代,有许多成功的项目和新的方向。其中最有影响力的是:

作为搜索推理[ 编辑]

许多早期的AI程序都使用相同的基本算法。为了实现某个目标(比如赢得比赛或者证明一个定理),他们一步一步地(通过做出动作或推断)逐步进行,就好像在迷宫中搜索一样,当它们到达死胡同时回溯。这种范式被称为“ 推理作为搜索 ”。[48]

主要困难在于,对于许多问题,通过“迷宫”的可能路径的数量简直是天文数字(称为“ 组合爆炸 ”)。研究人员将通过使用启发式或“ 经验法则 ”来减少搜索空间,从而消除那些不太可能导致解决方案的路径。[49]

NewellSimon试图在一个名为“ 一般问题求解器 ” 的程序中捕获该算法的通用版本。[50]其他的“搜索”程序能够完成令人印象深刻的任务,如解决几何和代数问题,如赫伯特格勒特几何定理证明(1958)和明斯基的学生詹姆斯斯拉格(1961)写的SAINT[51]通过目标和子目标搜索其他程序来规划行动,如斯坦福大学开发的STRIPS系统来控制他们的机器人Shakey的行为。[52]

语义网络的一个例子

自然语言[ 编辑]

人工智能研究的一个重要目标是让计算机能够以英语等自然语言进行交流。早期的成功是Daniel Bobrow的程序STUDENT,它可以解决高中代数问题。[53]

一个语义网代表概念(如“房子”,“门”)为节点和概念之间的关系(例如,“具有-A”)作为节点之间的链接。第一个使用语义网的AI程序由Ross Quillian编写[54],最成功的(也是有争议的)版本是Roger Schank概念依赖理论[55]

Joseph WeizenbaumELIZA可以进行非常现实的对话,以至于偶尔用户被愚弄到认为他们正在与人交流而不是程序。但事实上,伊丽莎丝毫不知道她在说什么。她只是简单地给出了一个罐头响应,或者重复了对她所说的话,用一些语法规则重述了她的回答。ELIZA是第一个聊天机器人。[56]

微观世界[ 编辑]

在60年代末,马文·明斯基西摩帕尔特中的MIT人工智能实验室提出了人工智能研究重点应放在被称为微世界人工简单的情况。他们指出,在像物理学这样成功的科学中,基本原理通常可以通过使用简化模型(如无摩擦平面或完全刚体)来最好地理解。大部分的研究都集中在一个“ 块状世界 ” 上,这个“ 块状世界 ”由排列在平坦表面上的各种形状和大小的彩色块组成。[57]

Gerald Sussman(领导团队),Adolfo GuzmanDavid Waltz(他发明了“ 约束传播 ”),特别是Patrick Winston,这种范例导致了机器视觉方面的创新工作。与此同时,明斯基帕佩特建立了一个机器人手臂,可以将积木堆砌起来,将积木世界变为现实。微世界计划的最大成就是Terry WinogradSHRDLU。它可以用普通的英语句子进行交流,计划操作并执行它们。[58]

乐观主义[ 编辑]

第一代人工智能研究人员对他们的工作做出了这些预测:

这笔钱[ 编辑]

1963年6月,麻省理工学院从新成立的高级研究计划署(后称为DARPA)获得了220万美元的资助。这笔钱被用于资助MAC项目,该项目囊括了MinskyMcCarthy五年前创建的“AI Group” 。直到70年代,DARPA每年仍然提供300万美元。[63] DARPACMU的NewellSimon的项目以及1963年John McCarthy创立的斯坦福AI项目提供类似的补助金。[64]1965年,Donald Michie爱丁堡大学成立了另一个重要的人工智能实验室。[65]这四个机构多年来一直是学术界人工智能研究(和资助)的主要中心。[66]

这笔钱只有几条附加条件:当时的ARPA主管JCR Licklider认为他的组织应该“为人们提供资金,而不是项目!” 并允许研究人员追求任何可能令他们感兴趣的方向 [67]这在麻省理工学院创造了一种可以产生黑客文化的自由气氛,[68]但这种“放手”的方式不会持久。

机器人[ 编辑]

在日本,早稻田大学发起WABOT项目于1967年,并于1972年完成了WABOT-1,世界上第一个全尺寸智能人形机器人[69] [70]机器人。它的肢体控制系统允许它与下肢一起行走,并使用触觉传感器用手抓握和运输物体。它的视觉系统允许它使用外部接收器,人造眼睛和耳朵来测量物体的距离和方向。它的谈话系统允许它用一个人造嘴与日本人交流。[71] [72] [73]

第一次AI冬季1974-1980 [ 编辑]

在20世纪70年代,人工智能受到批评和财务挫折。人工智能研究人员没有意识到他们面临的问题的困难。他们的巨大乐观情绪使人们的期望提高到不可能的高度,当承诺的结果未能实现时,AI的资金就消失了。[74]与此同时,Marvin Minsky感知器毁灭性批评几乎完全关闭了连接主义领域(或神经网络)10年。[75]虽然在70年代末AI的公众认知的困难,新的想法在研究逻辑编程常识推理和许多其他领域。[76]

问题[ 编辑]

在七十年代初,人工智能项目的能力有限。即使是最令人印象深刻的只能处理他们应该解决的问题的微不足道的版本,所有的节目在某种意义上都是“玩具”。[77]人工智能研究人员已经开始遇到几个基本的限制,这些限制在20世纪70年代无法克服。虽然其中一些限制在未来几十年会被征服,但其他一些限制仍然阻碍了这一领域的发展。[78]

  • 有限的计算机能力:没有足够的内存或处理速度来完成任何真正有用的事情。例如,罗斯奎利安在自然语言方面的成功工作仅用了二十个词的词汇,因为这是所有适合记忆的东西。[76] 汉斯Moravec在1976年辩称,计算机仍然数以百万计的软弱无法展示情报。他提出了一个比喻:人工智能需要计算机的动力,就像飞机需要马力一样。低于一定的门槛,这是不可能的,但随着功率的增加,最终可能变得容易。[80]关于计算机视觉,Moravec估计,简单地匹配人类视网膜的边缘和运动检测能力需要一个能够以10 9次 /秒(1000 MIPS)的通用计算机。[81]截至2011年,实际的计算机视觉应用需要10,000至1,000,000 MIPS。相比之下,1976年最快的超级计算机Cray-1(零售价在500万美元至800万美元之间)只能够达到80至130 MIPS左右,而当时典型的台式计算机实现不到1 MIPS。
  • 难以处理组合爆炸。1972年,理查德·卡普(在建筑斯蒂芬·库克的1971定理)显示,有很多问题是可以大概只在需要解决指数时间(在输入的大小)。寻找解决这些问题的最佳解决方案需要难以想象的计算机时间,除非问题微不足道。这几乎肯定意味着AI所使用的许多“玩具”解决方案可能永远不会扩展成有用的系统。[82]
  • 常识性知识推理。许多重要的人工智能应用程序(如视觉自然语言)只需要大量关于世界的信息:程序需要了解它可能在看什么或在说什么。这就要求该计划了解孩子所做的与世界大部分相同的事情。研究人员很快发现这是一个真正的大量信息。1970年没有人能建立如此庞大的数据库,也没有人知道一个计划如何获得这么多的信息。[83]
  • Moravec的悖论:证明定理和解决几何问题对于计算机来说相对容易,但是一个所谓简单的任务,比如识别一张脸或穿过一个房间而不碰任何东西是非常困难的。这有助于解释为什么在20世纪70年代中期,对视觉机器人技术的研究进展甚微。[84]
  • 资格的问题。使用逻辑的人工智能研究人员(如约翰麦卡锡)发现,他们不能代表涉及计划或默认推理的普通推理,而不改变逻辑本身的结构。他们开发了新的逻辑(如非单调逻辑模态逻辑)来尝试解决这些问题。[85]

资金结束[ 编辑]

另见:AI Winter

资助人工智能研究的机构(如英国政府DARPANRC)由于缺乏进展而感到沮丧,并最终切断了几乎所有针对人工智能无向研究的资金。早在1966年ALPAC报告就开始批评机器翻译工作时,这一模式就开始了。花了2000万美元后,NRC终止了所有的支持。[86] 1973年,Lighthill报告了英国人工智能研究状况,批评人工智能完全失败以实现其“宏伟目标”,并导致人工智能研究在该国的瓦解。[87] (本报告中具体提及的组合爆炸问题作为AI失败的原因)。[88] DARPACMU 语音理解研究计划的研究人员深表失望,并取消了每年300万美元的拨款。[89]到1974年,人工智能项目的资金很难找到。

汉斯Moravec归咎于他的同事不切实际的预测危机。“许多研究人员被卷入一个越来越夸张的网络。” [90]然而,还有一个问题:自从1969年曼斯菲尔德修正案通过以来,DARPA一直面临越来越大的压力来资助“以任务为导向的直接研究,而不是基本的无向研究”。在60年代进行的创造性,自由探索的资助不会来自DARPA。相反,这笔钱是针对具有明确目标的具体项目,如自动坦克和战斗管理系统。[91]

来自校园的批评[ 编辑]

另见:人工智能哲学

几位哲学家强烈反对人工智能研究人员提出的主张。最早的一个是约翰卢卡斯,他认为哥德尔的 不完备定理表明,一个正式的系统(例如计算机程序)永远不会看到某些陈述的真实性,而人是可以的。[92] 休伯特·德雷福斯嘲笑20世纪60年代的失信和批评AI的假设,认为人类的推理实际参与非常少“符号处理”和大量体现本能的,无意识的“ 懂得 ”。[93] [94] 约翰塞尔的1980年提出的中国房间论证试图表明,不能说一个程序“理解”它使用的符号(称为“ 意向性 ” 的质量)。如果符号对机器没有意义,Searle认为,那么机器不能被描述为“思考”。[95]

人工智能研究人员并没有认真对待这些评论,因为他们似乎太离谱了。像难处理常识性知识似乎更直接和严重。目前还不清楚在实际的计算机程序中“ 知道如何”或“ 意向性 ”有什么区别。明斯基说德雷福斯和塞尔“他们误解了,应该被忽略。” [96]麻省理工学院任教的德雷福斯受到了冷遇:他后来说AI研究人员“不敢和我一起吃午饭”。[97] ELIZA的作者Joseph Weizenbaum觉得他的同事们的'德雷福斯是不专业和幼稚的。虽然他是直言不讳的批评德雷福斯的立场,但他“故意明确表示,他们不是对待人类的方式。” [98]

魏泽鲍姆开始有关于AI严重的道德疑虑时,肯尼斯·科尔比写了医生,一个聊天机器人治疗师。Weizenbaum感到不安,Colby认为他的无意识程序是一种严肃的治疗工具。一场争斗开始了,当Colby没有相信Weizenbaum对该计划的贡献时,情况就没有了。1976年,Weizenbaum发表了“ 计算机力量与人类理性”,认为滥用人工智能有可能贬低人类生命。[99]

感知器和连接主义的黑暗时代[ 编辑]

一个感知器是一种形式的神经网络在1958年推出了弗兰克·罗森布拉特,谁曾的同学马文·明斯基科学的布朗克斯高中。像大多数人工智能研究人员一样,他对自己的能力持乐观态度,预测“感知器最终能够学习,做出决定并翻译语言。” 整个20世纪60年代开展了一个积极的研究范式,但随着明斯基帕佩特 1969年出版的书Perceptrons的出版,它突然停了下来。它表明,感知器可以做什么以及Frank Rosenblatt有严格的限制他的预言被严重夸大了。这本书的影响是毁灭性的:几乎完全没有研究,做联结了10年。最终,新一代研究人员将复兴这一领域,此后它将成为人工智能的重要和有用的组成部分。罗森布拉特不会活着看到这件事,因为他在书出版后不久就在一次划船事故中死去。[75]

整洁:逻辑和符号推理[ 编辑]

早在1958年,John McCarthy在其建议者Taker的建议中就将逻辑引入到AI研究中。[19] 1963年,J. Alan Robinson发现了一种在计算机上实现演绎的简单方法,即解析统一算法。然而,像麦卡锡和他的学生在20世纪60年代后期尝试的那样,直截了当的实现尤其棘手:程序需要天文学步骤来证明简单的定理。[ 70 ]爱丁堡大学的罗伯特科瓦尔斯基在20世纪70年代开发了一种更有成果的逻辑方法,并很快导致了与法国研究人员Alain ColmerauerPhilippe Roussel的合作,他们创建了成功的逻辑编程语言Prolog[102] Prolog使用逻辑的子集(Horn子句,密切相关的“规则”和“ 生产规则 ”),其允许易于处理的计算。规则将继续具有影响力,为Edward Feigenbaum专家系统Allen NewellHerbert A. Simon持续开展的工作奠定基础,这将导致Soar及其统一的认知理论[103]

正如德雷福斯所言,逻辑方法的批评者指出,人类在解决问题时很少使用逻辑。像Peter WasonEleanor RoschAmos TverskyDaniel Kahneman等人这样的心理学家的实验提供了证据。[104]麦卡锡回应说,人做什么是无关紧要的。他认为真正需要的是能够解决问题的机器,而不是像人们那样思考的机器。[105]

sc::框架和脚本[ 编辑]

麦卡锡的方法批评者中有他在麻省理工的全国各地的同事。Marvin MinskySeymour PapertRoger Schank试图解决诸如“故事理解”和“物体识别”之类的需要机器像人一样思考的问题。为了使用像“椅子”或“餐厅”这样的普通概念,他们必须做出与人们通常所做出的所有相同的不合逻辑的假设。不幸的是,这些不精确的概念很难用逻辑表示。杰拉尔德·苏斯曼指出:“用精确的语言来描述基本上不精确的概念并不能使它们更精确。” 将他们的“反逻辑”方法描述为“ sc ”“,与McCarthyKowalskiFeigenbaumNewellSimon使用的” 整齐 “范式相反。[107]

1975年,在一篇开创性的论文中,明斯基指出,他的许多“sc”“研究人员正在使用相同类型的工具:一个框架,它捕捉我们关于某事的所有常识假设。例如,如果我们使用鸟的概念,就会立即想到一组事实:我们可以假设它飞行,吃蠕虫等等。我们知道这些事实并不总是正确的,并且使用这些事实扣减不会是“逻辑”,但假设这些结构性集是部分情况下,我们说的和想的一切。他称这些结构为“ 框架 ”。Schank使用了他称之为“ 脚本 ”的框架版本“用英语成功回答关于短篇小说的问题。[108]多年以后,面向对象编程将采用AI关于框架研究的” 继承 “ 的基本思想。

Boom 1980-1987 [ 编辑]

在20世纪80年代,世界各地的企业都采用了一种称为“ 专家系统 ” 的人工智能计划,知识成为主流人工智能研究的重点。在同一年里,日本政府积极地为人工智能提供第五代计算机项目。20世纪80年代初的另一个令人鼓舞的事件是约翰霍普菲尔德大卫鲁梅尔哈特的工作中的联结主义的复兴。AI再一次取得了成功。

专家系统的兴起[ 编辑]

一个专家系统是回答问题或解决关于知识的特定领域的问题,使用逻辑程序规则,是根据专家的知识的。最早的例子是由Edward Feigenbaum和他的学生开发的。Dendral于1965年开始从光谱仪读数中确定化合物。1972年开发的MYCIN诊断出传染性血液疾病。他们证明了这种方法的可行性。[109]

专家系统将自己限制在一个特定知识的小范围内(从而避免常识性知识问题),而且它们的简单设计使得程序相对容易构建,并在其到位后进行修改。总而言之,这些计划被证明是有用的:AI迄今为止尚未能实现的东西。[110]

1980年,一个叫专家系统XCON在完成CMU数字设备公司。这是一个巨大的成功:它在1986 年前每年为公司节省4000万美元。[111]世界各地的公司开始开发和部署专家系统,到1985年,他们花费了超过10亿美元的AI,其中大部分用于人工智能部门。一个行业长大以支持它们,包括SymbolicsLisp Machines等硬件公司以及IntelliCorpAion等软件公司。[112]

知识革命[ 编辑]

专家系统的力量来自他们所掌握的专业知识。它们是AI研究中一个新的方向的一部分,在整个70年代一直在取得进展。“人工智能研究人员开始怀疑 - 不情愿,因为它违反了简约科学规范 - 智力可能很好地基于以不同方式使用大量不同知识的能力,” [113] Pamela McCorduck写道。“从20世纪70年代开始,他的一个很好的教训就是,聪明的行为非常依赖于处理知识,有时甚至是非常详细的知识,而不是一个特定任务所在的领域。” [114] 基于知识的系统知识工程成为了人工智能研究在20世纪80年代的一大焦点。[115]

20世纪80年代,Cyc也诞生了,Cyc是直接攻击常识性知识问题的第一次尝试,创建了一个庞大的数据库,其中包含普通人知道的所有常见事实。开始并领导该项目的道格拉斯莱纳特认为,没有捷径 - 机器知道人类概念意义的唯一途径就是一次一个人地教他们一个概念。该项目预计不会完成数十年。[116]

象棋程序HiTechDeep Thought于1989年击败了国际象棋大师。这两个程序均由卡内基梅隆大学开发; 深思想的发展为深蓝铺平了道路。[117]

钱回报:第五代项目[ 编辑]

1981年,日本国际贸易和工业部第五代计算机项目拨出8.5亿美元。他们的目标是编写程序并构建可以进行对话,翻译语言,解释图片和人类理性的机器。[118]许多到懊恼scruffies,他们选择的Prolog作为主计算机语言的项目。[119]

其他国家回应了自己的新计划。英国开始了3.5亿欧元的Alvey项目。美国公司财团组成了微电子和计算机技术公司(或“MCC”),为AI和信息技术的大型项目提供资金。[120] [121] DARPA反应为好,创始战略计算计划和三倍1984和1988年之间在其投资AI [122]

具有四个节点的Hopfield网络。

联结主义的复兴[ 编辑]

1982年,物理学家约翰霍普菲尔德能够证明一种神经网络(现在称为“ Hopfield网络 ”)能够以全新的方式学习和处理信息。大约在同一时间,David Rumelhart推广了一种训练神经网络的新方法,称为“ 反向传播 ”(Paul Werbos多年前发现)。这两项发现使1970年以来基本被放弃的连接主义领域重新焕发了生机。[121] [123]

1986年并行分布式处理的出现使这一新领域得到了统一和启发--Rumelhart和心理学家James McClelland编辑了两卷论文。在20世纪90年代,当神经网络开始被用作引擎驱动程序,如光学字符识别语音识别时,神经网络将在商业上取得成功。[121] [124]

胸围:第二次AI冬季1987-1993 [ 编辑]

20世纪80年代,商业界对AI的迷恋在经济泡沫的典型模式中上升并下降。崩溃是在感知 AI的政府机构和投资者-现场持续,尽管批评做出的进步。来自相关机器人领域的研究人员Rodney BrooksHans Moravec争论了一种全新的人工智能方法。

艾恩冬季[ 编辑]

“ AI冬季 ”一词是由1974年资金削减后幸存下来的研究人员创造的,当时他们担心专家系统的热情已经失控并且肯定会失望。[125]他们的担忧是有根据的:在20世纪80年代末和90年代初,人工智能遭遇了一系列金融挫折。

在天气变化的第一个迹象是市场专门AI硬件从1987年台式电脑突然崩溃的苹果IBM已经逐渐获得越来越广泛的速度和力量,并在1987年,他们变得比更贵更强大的Lisp机所作象征和其他。购买它们不再有很好的理由。价值5亿美元的整个行业在一夜之间被拆除。[126]

最终,最早成功的专家系统(如XCON)证明其维护成本太高。他们很难更新,他们无法学习,他们是“ 脆弱的 ”(即当他们提供不寻常的投入时,他们可能会犯一些怪诞的错误),并且他们陷入了多年前已经发现的问题(如资格问题)。专家系统被证明是有用的,但只有在一些特殊的情况下。[127]

在二十世纪八十年代后期,战略计算计划削减了对人工智能的“深入和残酷”资助。DARPA的新领导层已经决定人工智能不是“下一波”,并将资金投向那些似乎更有可能产生即时结果的项目。[128]

到了1991年,1981年为日本第五代项目制定的令人印象深刻的目标没有实现。事实上,其中一些,像“进行一次随意的对话”,到2010年还没有实现。[129]与其他AI项目一样,期望值远高于实际可能的值。[129]

拥有一个身体的重要性:新人工智能和体现的理性[ 编辑]

主要文章:Nouvelle AI基于行为的AI位于,并体现认知科学

在20世纪80年代后期,一些研究人员提出了一种基于机器人技术的全新的人工智能方法。[130]他们认为,为了显示真实的情报,机器需要有一个身体 - 它需要感知,移动,生存和处理世界。他们认为,这些感觉运动技能对于像常识推理这样的更高水平的技能是必不可少的,抽象推理实际上是最不有趣或重要的人类技能(参见Moravec的悖论)。他们主张“自下而上”建设情报。[131]

这种方法从六十年代以来一直不受欢迎的控制论控制理论中恢复了出来。另一个前兆是戴维马尔,他在70年代后期从理论神经科学的成功背景来到麻省理工学院,领导该小组研究视力。他拒绝一切象征性的方法(这两个 麦卡锡的逻辑和明斯基的帧),认为AI需要了解从下往上视野的物理机械之前的任何象征性的处理发生。(Marr的工作将在1980年被白血病所扼杀。)[132]

在1990年的论文“大象不玩国际象棋,” [133]机器人研究员罗德尼·布鲁克斯把矛头直指的物理符号系统假说,认为既然“世界本身就是最好的模型符号并不总是必要的。这是总是精确到最新,它的每一个细节总是被人们所了解,其中的诀窍在于适当地并且经常地感知它。“ [134]在二十世纪八十年代和九十年代,许多认知科学家也拒绝了心智的符号处理模式,并认为身体对于推理是必不可少的,这一理论称为体现的心灵论题。[135]

AI 1993-2011 [ 编辑]

人工智能领域现在已有半个多世纪的历史,最终实现了一些最古老的目标。它开始在整个科技行业成功使用,尽管在幕后。其中一些成功是由于计算机能力的增强,一些是通过关注具体的孤立问题并以最高标准的科学问责追求这些问题而实现的。尽管如此,人工智能在商业世界中的声誉至少不如原始。在该领域内,人们对AI未能实现20世纪60年代捕捉到世界想象力的人类智能梦想的理由几乎没有一致意见。综合起来,所有这些因素都有助于将人工智能分解为针对特定问题或方法的竞争子领域,[136] AI既更加谨慎,更成功比它曾经去过。

里程碑和摩尔定律[ 编辑]

在1997年5月11日,深蓝成为第一个打败卫冕世界国际象棋冠军Garry Kasparov的电脑国际象棋系统。[137]所述的超级计算机是由IBM制造的框架的专用版本,并且是能够处理每秒两次尽可能多的移动,因为它的第一个匹配(其深蓝失去)时具有,据报道,每秒2亿个移动。该活动通过互联网直播并获得超过7400万次点击。[138]

2005年,一位斯坦福机器人通过自行驾驶沿着未知沙漠路线行驶131英里赢得了DARPA大挑战赛冠军[139]两年后,从CMU一队获得DARPA城市挑战赛通过在城市的环境中自主导航55英里同时遵守交通隐患和所有的交通法规。[140] 2011年2月,在危险之中! 智力竞赛表演赛,IBM问答系统沃森,击败了两个最大的危险!冠军,布拉德鲁特肯詹宁斯,大幅度。[141]

这些成功并不是由于一些革命性的新范式,而主要是由于工程技术的繁琐应用以及当今计算机的巨大威力。[142]事实上,深蓝电脑比快10万次费伦蒂马克1克里斯托弗·斯特雷奇教下棋1951 [143]这显着增加是由测量摩尔定律,其预测的速度和内存容量电脑每两年翻一番。“原始计算机能力”的根本问题正在慢慢被克服。

智能代理[ 编辑]

20世纪90年代,被称为“ 智能代理 ”的新范式被广泛接受。[144]虽然早期的研究人员提出了模块化的“分而治之”的办法,以AI,[145]智能代理并没有达到它的现代形式,直到犹太珍珠艾伦纽厄尔莱斯利·P·卡尔布林,和其他人带来了从概念决策理论和经济学进入人工智能的研究。[146]经济学家的一个的定义理性剂结婚了对计算机科学一个的的定义对象模块智能代理范例已完成。

一个智能代理是感知周围环境,并采取最大限度提高成功的机会操作的系统。根据这一定义,解决特定问题的简单方案是“智能代理”,因为是人类和人类的组织,如公司。该智能代理模式定义人工智能研究的“智能代理的研究”。这是AI早期定义的概括:它不仅仅是研究人类的智能,它研究各种情报。[147]

这个范例让研究人员有权研究孤立的问题,并找到既可验证又有用的解决方案。它提供了一种共同语言来描述问题并相互分享他们的解决方案,以及其他也使用抽象代理概念的领域,如经济学和控制理论。希望有一天,一个完整的代理体系结构(如Newell的 SOAR)将允许研究人员利用互动智能代理构建更多功能和智能系统。[148] [148]

“整洁的胜利” [ 编辑]

人工智能研究人员开始开发和使用复杂的数学工具,比过去更多。[149]有一个很多的那个AI需要解决的问题都已经在类似领域工作的研究人员普遍认识数学,经济学和运筹学。共享的数学语言使得与更成熟和成功的领域进行更高水平的合作,并实现可衡量和可证明的结果。人工智能已经成为更严格的“科学”学科。罗素和诺维格(Russell&Norvig,2003)形容这只不过是一场“革命”和“ 整洁的胜利”。[150] [151]

朱迪亚·珍珠 1988年的高影响力书籍[152]概率决策理论带入了人工智能。在众多使用的新工具中,有贝叶斯网络隐马尔可夫模型信息理论随机建模和经典优化。还为诸如神经网络进化算法之类的“ 计算智能 ”范例开发了精确的数学描述。[150]

人工智能在幕后[ 编辑]

AI研究人员最初开发的算法开始出现在大型系统中。AI已经解决了很多非常困难的问题[153]被证明是整个行业的技术有用,他们的解决方案,[154]数据挖掘工业机器人,物流,[155] 语音识别[156]银行软件,[ 157]医疗诊断[157]谷歌的搜索引擎。[158]

在20世纪90年代和21世纪初,AI在这方面的成就几乎没有得到任何好评。许多AI最伟大的创新已经被沦为计算机科学工具箱中另一件物品的地位。[159] Nick Bostrom解释说:“很多先进的AI已经过滤到一般应用中,通常没有被称为AI,因为一旦某个东西变得足够有用并且足够普遍,它就不再被标记为AI了。” [160]

在20世纪90年代,人工智能中的许多研究人员故意通过其他名称来称呼他们的工作,如信息学基于知识的系统认知系统计算智能。部分原因可能是因为他们认为他们的领域与人工智能有着根本的区别,而且新名称有助于获得资金。至少在商业世界中,正如“纽约时报”2005年报道的那样,AI Winter的失败承诺继续困扰着21世纪的AI研究:“计算机科学家和软件工程师避免使用人工智能这个术语,因为害怕被视为狂野眼睛梦想家“。[161] [162] [163]

HAL 9000在哪里?[ 编辑]

1968年,阿瑟克拉克斯坦利库布里克曾想象到,到2001年,机器将以与人类能力相匹配或超过能力的智能存在。他们创造的角色HAL 9000基于许多领先的AI研究人员的共同信念,即在2001年之前,这种机器将存在。[164]

在2001年,AI创始人Marvin Minsky问道:“所以问题是为什么我们在2001年没有获得HAL?” [165]明斯基认为,答案是核心问题,像常识推理,都被忽视,而大多数研究人员所追求的东西一样的商业应用神经网络遗传算法。另一方面,约翰麦卡锡仍然指责资格问题[166]对于光芒Kurzweil的问题是电脑的电源,并使用摩尔定律,他预测,随着人类水平的智能机将由2029年出现[167] 杰夫·霍金斯认为神经网络研究忽视了人类皮质的基本属性,更喜欢简单的模型,这些模型已经成功地解决了简单的问题。[168]还有很多其他的解释,并且每个都有相应的研究计划在进行。

深度学习,大数据和人工智能:2011年至今[ 编辑]

在21世纪的前几十年,获取大量数据(称为“ 大数据 ”),更快的计算机和先进的机器学习技术已成功应用于整个经济中的许多问题。事实上,麦肯锡全球研究院在他们的着名论文“大数据:创新,竞争和生产力的下一个前沿”中估计,“到2009年,美国经济中几乎所有的行业至少平均存储了200TB的存储数据” 。

到2016年,人工智能相关产品,硬件和软件市场已经达到80多亿美元,“纽约时报”报道称对人工智能的兴趣已经达到“疯狂”。[169]大数据的应用也开始进入其他领域,例如生态学培训模式[170]经济学中的各种应用。[171]在进展深度学习(特别是深卷积神经网络递归神经网络)开车在图像和视频处理,文本分析,甚至是语音识别的进展和研究。[172]

深度学习[ 编辑]

主要文章:深入学习

深度学习是机器学习的一个分支,它通过使用具有许多处理层的深度图来模拟数据的高级抽象。[172]根据本通用逼近定理,深岬是没有必要为一个神经网络,以便能够逼近任意连续函数。即便如此,深层网络有助于避免的浅层网络(如过度配合)也存在很多常见问题。[173]因此,深层神经网络能够比他们的同行浅,切实产生更复杂的模型。

但是,深度学习有其自身的问题。递归神经网络的一个常见问题是消失梯度问题,即渐变层之间的渐变逐渐收缩并逐渐消失,因为它们四舍五入为零。已经有很多方法可以解决这个问题,比如Long short-term memory unit。

最先进的深度神经网络架构有时甚至可以在诸如计算机视觉领域,特别是像MNIST数据库和交通标志识别这样的领域与人类的精度相媲美。[174]

由智能搜索引擎驱动的语言处理引擎可以轻松击败人类回答一般的问题(如IBM Watson),深度学习的最新发展已经在与人类竞争中产生了惊人的结果,如Go和Doom(它是FPS,引发了一些争议)。[175] [176] [177] [178]

另见[ 编辑]

人工智能门户

笔记[ 编辑]

  1. 跳起来^ McCorduck 2004年
  2. 跳起来^ Kurzweil 2005年
  3. 跳起来^ McCorduck 2004,pp。5-35。
  4. 跳起来^ McCorduck 2004年,p。5; Russell&Norvig 2003,p。939
  5. 跳起来^ McCorduck 2004年,第15-16页; Buchanan 2005,p。50(犹大勒夫魔像); McCorduck 2004,第13-14页(Paracelsus); 奥康纳1994(Geber'sTakwin
  6. 跳起来^ McCorduck 2004年,第17-25页。
  7. 跳起来^ 巴特勒1863年
  8. 跳起来^ Needham 1986年,p。53
  9. 跳起来^ McCorduck 2004年,p。6
  10. 跳起来^ 尼克2005年
  11. 跳起来^ McCorduck 2004年,p。17并参见Levitt 2000
  12. 跳起来^ 引用在McCorduck 2004,p。8.Crevier 1993,p。1和McCorduck 2004年,第6-9页讨论了神圣的雕像。
  13. 跳起来^ 其他重要的自动机是由Haroun al-RashidMcCorduck 2004p.10),Jacques de VaucansonMcCorduck 2004p.16)和Leonardo Torres y QuevedoMcCorduck 2004,pp.59-62)
  14. 跳到:d 柏林斯基2000年
  15. 跳转^ Cfr。Carreras Artau,TomásyJoaquín。Historia de lafilosofíaespañola。Filosofíacristiana de los siglos XIII al XV。1939年,马德里,第一卷
  16. 跳起来^ Bonner,Anthonny,RamónLlull的艺术和逻辑:用户指南,Brill,2007。
  17. 跳起来^ Anthony Bonner(编辑),Illuminatus博士。拉蒙Llull读者(普林斯顿大学1985)。VID。“Llull的影响:Lullism的历史”在57-71
  18. 跳起来^ 17世纪机制和AI:
  19. 跳起来^ Hobbes和AI:
  20. 跳起来^ 莱布尼兹和AI:
  21. 跳起来^ 的拉姆达演算是特别重要的AI,因为它是一个灵感的Lisp(AI中使用的最重要的编程语言)。(Crevier 1993,pp.190 196,61)
  22. 跳起来^ 原始照片可以在文章中看到:罗斯,艾伦(1946年4月)。“雷击数学”科普热门:83-86。检索2012 年4月15日。
  23. 跳起来^ 的图灵机2004年McCorduck,页63-64。1993年Crevier,页22-24。罗素2003 Norvig表示,P。8并参见图灵1936年
  24. 跳起来^ Menabrea 1843年
  25. 跳起来^ McCorduck 2004年,pp.61-62,64-66,Russell&Norvig 2003年,第14-15页
  26. 跳起来^ McCorduck(2004,pp。76-80)
  27. 蹿^ McCorduck 2004,第51-57,80-107,Crevier 1993,第27-32页,罗素&Norvig还2003,第15,940,莫拉维克1988,第 3,Cordeschi,2002&Chap。5
  28. 跳起来^ McCorduck 2004年,p。98,Crevier 1993,第27-28页,Russell&Norvig 2003,第15,940页,Moravec 1988,p。3,Cordeschi,2002&Chap。5
  29. 跳起来^ McCorduck 2004,pp.51-57,88-94,Crevier 1993,p。30,Russell&Norvig 2003,p。15-16,Cordeschi,2002&Chap。5并且参见Pitts&McCullough 1943
  30. 跳起来^ McCorduck 2004年,p。102,Crevier 1993,第34-35页和Russell&Norvig 2003,p。17
  31. 跳起来^ McCorduck 2004,pp。70-72,Crevier 1993,p。22-25,Russell&Norvig 2003,第2-3和948页,Haugeland1985,第6-9页,Cordeschi 2002,第170-176页。另见图灵1950年
  32. 跳起来^ 弱势族群和Russell(2003,第948)声称图灵回答所有主要的反对已在几年以来所提供的文件出现了AI。
  33. 跳起来^ 参见AlanTuring.net的“计算简史”
  34. 跳起来^ Schaeffer,乔纳森。One Jump Ahead ::跳棋中的挑战人类霸权,1997,2009,Springer,ISBN 978-0-387-76575-4。第6章。
  35. 跳起来^ McCorduck 2004年,页137-170,Crevier,页44-47
  36. Jump up^ McCorduck 2004,pp.123-125,Crevier 1993,pp.44-46和Russell&Norvig 2003,p。17
  37. 跳起来^ 引用Crevier 1993,p。46和Russell&Norvig 2003,p。17
  38. 跳起来^ 罗素&Norvig 2003年,p。947952
  39. Jump up^ McCorduck 2004,pp.111-136,Crevier 1993,pp.49-51和Russell&Norvig 2003,p。17
  40. 跳起来^ 见McCarthy et al。1955年。另见Crevier 1993,p。48Crevier在其中指出“[该提案]后来被称为”物理符号系统假说“。该物理符号系统假说阐述和名为纽厄尔西蒙在他们的纸上GPS。(Newell&Simon 1963)它包含了一个更加具体的“机器”定义,作为操纵符号的代理。看到人工智能哲学
  41. 跳转^ McCorduck(2004,pp.129-130)讨论了达特茅斯大学校友如何主宰人工智能研究的头20年,称他们为“无形的大学”。
  42. 跳起来^ “我不会发誓,我以前也没见过,”麦卡锡在1979年告诉帕梅拉麦考德克McCorduck,2004年,第114页)然而,麦卡锡还明确表示“我想出了”CNET访谈。(Skillings 2006
  43. 跳起来^ Crevier(1993,第49页)写道:“这次会议通常被认为是新科学的官方出生日期。”
  44. 跳起来^ 拉塞尔和诺维格写道:“当电脑做任何事情都很聪明的时候,这是惊人的。” Russell&Norvig 2003,p。18
  45. Jump up^ Crevier 1993,pp.52-107,Moravec 1988,p。9和Russell&Norvig 2003,p。18-21
  46. 跳起来^ McCorduck 2004年,p。218,Crevier 1993,pp.108-109和Russell&Norvig 2003,p。21
  47. Jump up^ Crevier 1993,pp.52-107,Moravec 1988,p。9
  48. 跳转^ 手段 - 结束分析,作为搜索推理:McCorduck 2004,pp。247-248。Russell&Norvig 2003,pp.59-61
  49. 跳起来^ 启发式:McCorduck 2004,p。246,Russell&Norvig 2003,第21-22页
  50. 跳起来^ GPS:McCorduck 2004,页245-250,Crevier 1993,p。GPS?,Russell&Norvig 2003,p。全球定位系统?
  51. 跳起来^ Crevier 1993年,第51-58,65-66和罗素&Norvig 2003年,第18-19页
  52. Jump up^ McCorduck 2004,pp.268-271,Crevier 1993,pp.95-96,Moravec 1988,pp.14-15
  53. 跳起来^ McCorduck 2004年,p。286,Crevier 1993,第76-79页,Russell&Norvig 2003,p。19
  54. 跳起来^ Crevier 1993,pp。79-83
  55. 跳起来^ Crevier 1993年,页164-172
  56. Jump up^ McCorduck 2004,pp.291-296,Crevier 1993,第134-139页
  57. Jump up^ McCorduck 2004,pp.299-305,Crevier 1993,pp.83-102,Russell&Norvig 2003,p。19和谷轮2000年
  58. Jump up^ McCorduck 2004,pp.300-305,Crevier 1993,第84-102页,Russell&Norvig 2003,p。19
  59. 跳起来^ Simon&Newell 1958年,p。Crevier1993年引用的7-8页,p。108.另见Russell&Norvig 2003年,第6页。21
  60. 跳起来^ 西蒙1965年,p。Crevier 1993引用了96页,p。109
  61. 跳起来^ 明斯基1967年,p。2引用Crevier 1993,p。109
  62. 跳起来^ 明斯基坚信他被错误地引用了。参见McCorduck 2004,pp.272-274,Crevier 1993,p。96和Darrach 1970
  63. 跳起来^ Crevier 1993年,页64-65
  64. 跳起来^ Crevier 1993年,p。94
  65. 跳起来^ Howe 1994年
  66. 跳起来^ McCorduck 2004年,p。131,Crevier 1993,p。51. McCorduck还指出,资金主要来自1956年达特茅斯会议的校友们的指导下。
  67. 跳起来^ Crevier 1993年,p。65
  68. 跳起来^ Crevier 1993,页。68-71和Turkle 1984年
  69. 跳起来^ http://www.humanoid.waseda.ac.jp/booklet/kato_2-j.html
  70. 跳转^ 机器人与机电一体化:第4届IFToMM机器人与机电一体化国际研讨会论文集,第66页
  71. 跳转^ “历史Android项目”androidworld.com
  72. 跳起来^ 机器人:从科幻到科技革命,第130页
  73. 跳转^ 数字人体模型手册:应用人体工程学和人为因素工程研究,第3章,第1-2页
  74. 跳起来^ Crevier 1993年,页。100-144和罗素&Norvig 2003年,第21-22
  75. 跳到:b McCorduck 2004,pp.104-107,Crevier 1993,pp.102-105,Russell&Norvig 2003,p。22
  76. 跳起来^ Crevier 1993年,第163-196页
  77. 跳起来^ Crevier 1993年,p。146
  78. 跳起来^ 罗素&Norvig 2003年,第20-21页
  79. 跳起来^ Crevier 1993年,页146-148,也见Buchanan 2005年,p。56:“早期的计划必然受到记忆的大小和速度的限制”
  80. 跳起来^ Moravec 1976年麦卡锡一直不赞同Moravec,在SAIL一起回到他们的初期。他说:“我想说50年前,机器能力太小了,但到30年前,机器能力并不是真正的问题。” 在CNET采访中。(Skillings 2006
  81. 跳起来^ 汉斯Moravec,机器人:光机械超越心灵
  82. 跳起来^ ^ 罗素&Norvig 2003年,页9,21-22和Lighthill 1973
  83. 跳起来^ McCorduck 2004年,页300&421; Crevier 1993,第113-114页; Moravec 1988,p。13; Lenat&Guha 1989,(导言); Russell&Norvig 2003,p。21
  84. 跳起来^ McCorduck 2004年,p。456,Moravec 1988,第15-16页
  85. 跳起来^ McCarthy&Hayes 1969Crevier 1993,pp。117-119
  86. 跳起来^ McCorduck 2004年,第280-281,Crevier 1993年,p。110,Russell&Norvig 2003,p。21和NRC 1999年的“语音识别成功”。
  87. 跳起来^ Crevier 1993年,p。117,Russell&Norvig 2003,p。22,Howe 1994,另见Lighthill 1973
  88. 跳起来^ 罗素&Norvig 2003年,p。22,Lighthill 1973约翰麦卡锡在回复中写道:“组合爆炸问题已经从AI开始就已经在AI中得到了认可”,Lighthill报告回顾
  89. 跳起来^ Crevier 1993年,页115-116(在这个帐户基础上)。其他观点包括McCorduck 2004,pp。306-313和NRC 1999在“语音识别的成功”部分。
  90. 跳起来^ Crevier 1993年,p。115. Moravec解释说:“他们对DARPA的最初承诺过于乐观,当然,他们交付的东西在很大程度上已经停滞不前,但他们觉得他们在下一个提议中承诺不到第一个承诺,所以他们承诺更多。“
  91.  在“转向应用研究增加投资”一文中跳转 ^ NRC 1999。虽然自动坦克是失败的,但战斗管理系统(称为“DART”)证明是非常成功的,在第一次海湾战争中挽救了数十亿美元,偿还了投资并证明了DARPA的务实政策,至少DARPA担心。
  92. 跳起来^ 卢卡斯和Penrose'对AI的批评:Crevier 1993年,p。22,Russell&Norvig 2003,第949-950页,Hofstadter 1980,第471-477页并参见Lucas 1961
  93. 跳起来^ “诀窍”是德雷福斯一词。(德雷福斯区分了“知道如何”和“知道这一点”,这是海德格尔现成现在所作区分的现代版本。)(Dreyfus&Dreyfus,1986
  94. 跳起来^ 人工智能德雷福斯批判2004年McCorduck,第211-239,Crevier 1993年,第120-132,罗素2003 Norvig表示,第950-952看看德雷福斯1965年德雷福斯1972年德雷福斯和1986年德雷福斯
  95. 跳过^ Searle的AI批评:McCorduck 2004,第443-445页,Crevier 1993,第269-271页,Russell&Norvig 2004,第958-960页并参见Searle 1980
  96. 跳起来^ 引用Crevier 1993,p。143
  97. 跳起来^ 引用Crevier 1993,p。122
  98. 跳起来^ “我成为人工智能社区中唯一一个与德雷福斯共进午餐的人,我故意明确表示他们不是对待人的方式。” 约瑟夫Weizenbaum,在Crevier 1993引述,p。123。
  99. 跳转^ Weizenbaum对AI的批评:McCorduck 2004,pp.356-373,Crevier 1993,pp.132-144,Russell&Norvig 2003,p。961并参见Weizenbaum 1976
  100. 跳起来^ McCorduck 2004年,p。51,Russell&Norvig 2003,第19,23
  101. 跳起来^ McCorduck 2004年,p。51,Crevier 1993,pp.190-192
  102. 跳起来^ Crevier 1993,pp.193-196
  103. 跳起来^ Crevier 1993年,页145-149,258-63
  104. 跳起来^ 沃森(1966年)显示,人们对完全抽象的问题不好做,但如果问题重申允许使用直观的社交智能,性能显着提高。(见Wason选择任务Tversky,Slovic和Kahnemann(1982)已经表明,人们在涉及不确定推理的基本问题上很糟糕。(参见几个例子的认知偏差列表)。Eleanor Rosch的作品在1987年的Lakoff中被描述
  105. 跳起来^ 一个早期的例子McCathy的位置是在该杂志科学,他说:“这是AI,所以我们不关心,如果它是心理上真正”(科拉塔1982年),以及他最近重申了他的立场AI @ 50会议在那里他说:“人工智能的定义并不是人类智能的模拟”(Maker 2006)。
  106. 跳起来^ Crevier 1993年,第175页
  107. 跳起来^ 整洁与sc::麦考达克2004年,第421-424页(谁在1984年辩论状态)。Crevier 1993pp.168(谁记录了Schank最初使用的术语)。冲突的另一方面被称为“程序性/陈述性区分”,但在后来的人工智能研究中未被证明具有影响力。
  108. Jump up^ McCorduck 2004,pp.305-306,Crevier 1993,pp.170-173,246和Russell&Norvig 2003,p。24.明斯基的框架文件:明斯基1974年
  109. Jump up^ McCorduck 2004,pp.327-335(Dendral),Crevier 1993,pp.148-159,Russell&Norvig 2003,pp.22-23
  110. 跳起来^ Crevier 1993年,页158-159和罗素&Norvig 2003年,p。23-24
  111. 跳起来^ Crevier 1993年,p。198
  112. Jump up^ McCorduck 2004,pp.434-435,Crevier 1993,pp.161-162,197-203和Russell&Norvig 2003,p。24
  113. 跳起来^ McCorduck 2004年,p。299
  114. 跳起来^ McCorduck 2004年,第421页
  115. 跳转^ 知识革命:McCorduck 2004,pp。266-276,298-300,314,421,Russell&Norvig,pp.22-23
  116. 跳起来^ Cyc:McCorduck 2004,p。489,Crevier 1993,pp.239-243,Russell&Norvig 2003,p。363-365和Lenat&Guha 1989
  117. 跳起来^ “国际象棋:将军” (PDF)。检索2007 年9月1日。
  118. Jump up^ McCorduck 2004,pp.436-441,Crevier 1993,第211页,Russell&Norvig 2003,p。24并参见Feigenbaum&McCorduck 1983
  119. 跳起来^ Crevier 1993,页195
  120. 跳起来^ Crevier 1993年,第240。
  121. 跳到:c 罗素&Norvig 2003年,p。25
  122. 跳转^ McCorduck 2004年,第426-432页,NRC 1999年“转向应用研究增加投资”
  123. 跳起来^ Crevier 1993年,页214-215。
  124. 跳起来^ Crevier 1993年,页215-216。
  125. 跳起来^ Crevier 1993年,第203页。艾恩冬季最初被用作人工智能促进协会研讨会的题目。
  126. 跳起来^ McCorduck 2004年,p。435,Crevier 1993,第209-210页
  127. 跳起来^ McCorduck 2004年,p。435(他们引用了最终失败的体制原因),Crevier 1993,第204-208页(他引述了维护真相的困难,即学习和更新的困难),Lenat&Guha 1989,引言(他强调脆弱性和无能处理过度的资格。)
  128. 跳起来^ McCorduck 2004年,第430-431页
  129. 跳到:b McCorduck 2004年,p。441,Crevier 1993,p。212. McCorduck写道:“二十五年后,我们可以看到日本人并不完全符合所有这些雄心勃勃的目标。”
  130. 跳起来^ McCorduck 2004年,第454-462页
  131. 跳起来^ Moravec(1988,第20页)写道:“我有信心这种自下而上的人工智能路线将有一天能够满足传统的自上而下的路线,准备提供真实世界的能力和常识性的知识在推理计划中如此令人沮丧地难以捉摸,当隐喻性的黄金高峰推动这两种努力的结合时,将会产生完全智能的机器。“
  132. 跳起来^ Crevier 1993年,页183-190。
  133. 跳起来^ http://people.csail.mit.edu/brooks/papers/elephants.pdf
  134. 跳起来^ 布鲁克斯1990,p。3
  135. 跳起来^ 例如,见Lakoff&Turner 1999
  136. 跳转^ McCorduck(2004p。424)讨论了AI原始目标的分裂和放弃。
  137. 跳起来^ McCorduck 2004年,第480-483页
  138. 跳起来^ “深蓝色”。IBM研究。检索2010年9月10日。
  139. 跳起来^ DARPA大挑战 - 主页 存档在2007年10月31日在Wayback机器
  140. 跳起来^ http://archive.darpa.mil/grandchallenge/
  141. 跳转^ Markoff,约翰(2011年2月16日)。“在”危险之中!“ 沃森的胜利不过是微不足道的“纽约时报
  142. 跳起来^ Kurzweil 2005,p。274写道,计算机象棋的改进,“根据普遍的看法,仅受计算机硬件强力扩张的支配。”
  143. 跳起来^ Ferranti马克1的周期时间为1.2毫秒,这相当于大约833次 触发深蓝运行在 11.38Gigaflops(这甚至没有考虑深蓝的专用硬件下棋)。非常近似,它们相差10 ^ 7。
  144. 跳起来^ McCorduck 2004,页471-478,罗素&Norvig 2003年,p。55,他们在这里写道:“整个代理人的观点现在已被广泛接受”。该智能代理范式主要AI教科书,如讨论:罗素2003 Norvig表示,第32-58,968-972,普尔,麦克沃思与1998年格贝尔,第7-21,卢杰和2004年斯塔布菲尔德,第235 -240
  145. 跳起来^ 卡尔休伊特演员模型预计智能代理的现代定义。(休伊特,主教和斯泰格1973)约翰多伊尔(Doyle 1983)和马文明斯基的流行经典心理学会Minsky 1986)都使用了“代理人”这个词。其他“模块化”建议包括罗德尼布鲁克的 包容性体系结构面向对象编程等。
  146. 跳到:b 罗素&Norvig 2003年,第27,55
  147. 跳起来^ 这是21世纪最广为接受的教科书如何定义人工智能的方式。参见Russell&Norvig 2003,p。32和Poole,Mackworth&Goebel 1998,p。1
  148. 跳起来^ McCorduck 2004年,p。478
  149. 跳起来^ McCorduck 2004年,页486-487,罗素&Norvig 2003年,第25-26
  150. 跳到:b 罗素&Norvig 2003年,p。25-26
  151. 跳起来^ McCorduck(2004,p。487):“在我写的时候,AI享有一个干净的霸权。”
  152. 跳起来^ 明珠1988年
  153. 跳起来^ 参见人工智能的应用§计算机科学
  154. 跳起来^ NRC 1999年在“人工智能在90年代”,和库兹威尔2005年,页。264
  155. 跳起来^ 罗素&Norvig 2003年,p。28
  156. 跳起来^ 对于基于人工智能的语音识别领域的新技术,请参阅“经济学人”(2007年)
  157. 跳到:b “AI启发的系统已经成为许多日常技术的组成部分,例如互联网搜索引擎,用于处理交易的银行软件和医疗诊断。” 尼克·博斯特罗姆CNN 2006上引用
  158. 跳起来^ Olsen(2004)奥尔森(2006)
  159. 跳起来^ McCorduck 2004年,p。423,Kurzweil 2005,p。265,Hofstadter 1979,p。601
  160. 跳起来^ CNN 2006
  161. 向上跳^ Markoff 2005
  162. 跳起来^ 经济学人2007年
  163. 跳起来^ Tascarella 2006年
  164. 跳起来^ Crevier 1993年,页108-109
  165. 跳起来^ 他继续说:“答案是,我相信我们可以......我曾经参加过一次关于神经网络的国际会议,有4万个注册人......但是......如果你举个国际性的会议,例如,使用多种表示方式进行常识推理,我只能在全世界找到6到7个人。“ 明斯基2001年
  166. 跳到^ 制造商2006年
  167. 跳起来^ Kurzweil 2005年
  168. 跳起来^ Hawkins&Blakeslee 2004年
  169. 跳起来^ 史蒂夫洛尔(二○一六年十月一十七日), “ ” IBM指望其投注沃森,以及支付大笔钱买的“ ”纽约时报
  170. 跳起来^ Hampton,Stephanie E; Strasser,Carly A; Tewksbury,Joshua J; 克,温迪K; Budden,Amber E; Batcheller,Archer L; 杜克,克利福德S; 波特,约翰H(2013-04-01)。“大数据和生态的未来”生态与环境前沿11(3):156-162。doi 10.1890 / 120103ISSN  1540-9309
  171. 跳起来^ “大数据如何改变经济|贝克尔弗里德曼研究所”bfi.uchicago.edu 。检索2017-06-09。
  172. 跳到:b LeCun,Yann; Bengio,Yoshua; 欣顿,杰弗里。“深度学习”自然521(7553):436-444。Bibcode2015Natur.521..436Ldoi10.1038 / nature14539
  173. 跳起来^ Baral,Chitta; 富恩特斯,奥拉克; Kreinovich,Vladik(2015年6月)。“为什么深度神经网络:一个可能的理论解释”utep.edu 。检索2017 年6月9日。
  174. 跳起来^ Ciregan,D。Meier,U。Schmidhuber,J.(2012年6月)。“用于图像分类的多列深度神经网络”2012 IEEE计算机视觉和模式识别会议:3642-3649。arXiv 1202.2745

doi 10.1109 / cvpr.2012.6248110

  1. 跳起来^ Markoff,约翰(2011-02-16)。“在”危险之中!“ 沃森的胜利不过是微不足道的“纽约时报ISSN  0362-4331 。已检索2017-06-10。
  2. 跳起来吧^ “AlphaGo:用机器学习掌握Go的古老游戏”研究博客。已检索2017-06-10。
  3. 跳起来^ “AlphaGo创新| DeepMind”DeepMind 。已检索2017-06-10。
  4. 跳起来^ 大学,卡内基梅隆。“计算机在”末日“-CMU新闻 - 卡内基梅隆大学中播放人类”www.cmu.edu 。已检索2017-06-10。

参考[ 编辑]

----

-End- 

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

扫码关注云+社区

领取腾讯云代金券