前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >技术的“能”与“不能”,人工智能也需要哲学家加入探讨 | 清华AI Time

技术的“能”与“不能”,人工智能也需要哲学家加入探讨 | 清华AI Time

作者头像
大数据文摘
发布2019-11-08 09:31:43
4860
发布2019-11-08 09:31:43
举报
文章被收录于专栏:大数据文摘大数据文摘

大数据文摘出品

作者:刘俊寰

10月31日,由北京智源人工智能研究院主办的2019北京智源大会在国家会议中心开幕,本次大会吸引到了国内外人工智能领域的顶级专家学者参与,他们围绕人工智能基础研究现状及面临的机遇和挑战、人工智能技术未来发展的核心方向等话题,展开了深入研讨。

大会第一天上午,在智源大会上,AI Time举行了第八期“人工智能的‘能’与‘不能’”的主题辩论活动,中国科学院院士张钹,加州大学洛杉矶分校教授朱松纯,北京大学教授黄铁军,中国人民大学教授文继荣一起论道了“人工智能的能与不能”的相关问题。

数据跟知识结合起来,才能做出更好的系统

现场展示了几部电影片段,包括《超能陆战队》的智能诊断、《复仇者联盟》的手势交互、《流浪地球》的同声传译、《速度与激情》的无人驾驶、《Her》的情感伴侣,尽管电影中的人工智能技术已经相当成熟,但是现实中其实离我们还很遥远。

就上述五项技术的实现难度而言,张钹认为,手势交互相对容易一点,智能诊断其次,然后是同声传译、自动驾驶和情感伴侣,情感伴侣肯定是最难的。

首先大体上说现在人工智能能解释什么问题,做人工智能只有两个资源,一是知识和经验,一个是数据。人工智能最早的模型是以知识和经验为基础的推理模型,这个做得不是很成功,后来发现机器在运用知识方面与人类的差距也很大。

另外一条路就是利用数据,利用数据能得到意想之外的成就,计算机使用数据的能力远远超过人类,比如现在基于大数据的深度学习。现在大多数的应用都是使用的这些技术,在图像识别、语音识别、自然语言处理上取得不错的成果。

但同时,也必须看到这个成果的局限性,它应用的场合必须符合以下四个条件,因为这个技术有四大缺点:不可靠、不可信、不安全、难以推广,这就是单纯依靠数据驱动造成的问题。

  • 信息基本上是完全确定的
  • 环境基本上是结构化的,如果有变化这个变化是可预测的
  • 限定领域
  • 关键重要的地方不能用

现在单靠数据,在一些应用场景下是可以解决一些问题,但是更多场景下是不能解决问题的。为了克服这些缺点,需要加入知识。

比如同声传译,现在一般情况下机器翻译的问题不大,但是这种系统在某些场景下不可避免地会发生重大错误,因为它缺乏知识和常识。“说你行的人行”这句话,最好的翻译系统也会翻得一塌糊涂。自动驾驶也是这样,在关键地方信不过,经常会出一些大错。

下一步最重要的是把数据跟知识结合起来,这样才能做出好的系统。

朱松纯对张钹的观点表示认可,手势交互是可能实现的。大白决定于感知器,同声翻译和自动驾驶都是非常危险的东西,特别是用在外交上,是不可靠的。情侣是很有趣的现象,将来人工智能在这个方面可以超过人。

从整个能和不能来看,如果把任务定义清楚,也有数据,基本上都可能做。像百度、谷歌的研究人员,他们做出成果是基于对特定任务的定义,如果定义新的任务,所有的人工智能都不能了。这是核心的分水岭,就是你能够做多大的任务、多少任务、能不能自己定义任务。

有一个词叫任务陷阱。现在所有刷榜的数据库,这就是陷阱。2008年在一个会议上,参会人员把计算机视觉说成图像的分类问题,大家就被引到了任务陷阱里去了,这是非常危险的。

文继荣基本同意两位老师的观点,他指出,手势交互其实更接近于通用的人工智能助手,大白的实现要更容易一点,因为大白只是医疗方面的信息助手。接着应该是交互系统和同声传译。自动驾驶对容错性的要求太高了,除了技术难度以外,还要从用户可接受角度考虑。情感伴侣应该是最难的,这里面包含了更复杂的东西,甚至涉及到了意识问题。

黄铁军则认为,实现难度无法排序,但是这五个功能都能实现,甚至包括情感伴侣。但是这个机器与今天的计算机不同,它是一个全新的系统,就像类脑智能,构造出像人一样的的神经系统,只不过是电子版本的机器,它能在复杂环境里训练。

观众票选最难实现的统计数据

观众票选最易实现的统计数据

针对观众的票选结果,朱松纯打趣道,估计是科大讯飞的广告做得好,让大家都以为同声传译已经成为现实了。但是,如果看翻译结果的话,还是有很大差距的。虽然很支持科大讯飞的工作,但科学是科学,他们做不了,这是现实。

实现人工智能的基本要素

针对计算机能否会有意识,张钹认为,目前不可能进行科学的讨论,现在对人类的意识了解得还太少。不管是持哪方主张的人,都拿不出充分的科学证据来支持观点。这个问题不应该在科学领域里争论,更应该在哲学领域里讨论,哲学的讨论就是针对科学解释不了的、解决不了的问题。

智能这条路是唯一的途径,还是存在其他办法?现在的智能,包括意识在内,是通过几亿年的进化产生的,除了进化的路以外,会不会还有别的路?如果有别的路,是否就可以通过技术的不断提高来解决这个问题?这些都可以放到哲学领域内讨论。

黄铁军和张钹的观点几乎完全不同,他指出,产生自我意识的必要条件,第一要有类似甚至超越人类神经系统的物理载体,最简单的是把人的神经系统做一个拷贝,做一个电子的身体;第二要有一个复杂的环境,而地球就是一个很复杂的环境。有了这两个条件,就可以进行交互、尝试,然后不断地去训练。在这个过程中会发生很多种可能性,包括自我意识的产生。

但是这个问题就算是在哲学领域内讨论也是空谈。我们能做的是在技术领域去讨论、去实现。比如宋朝发明指南针的时候,没人说有种东西能够沿着地磁方向指南,那时候科学还不存在,人们也不知道电磁学,但是这并没有影响指南针的发明。

做出有自我意识的系统,前提是先去做这个系统,而不是解释人智能背后的原理问题。这不是科学问题或者哲学问题,而是技术问题。

张钹认为,哲学家肯定会去讨论这个问题,这也是无法阻止的,而且讨论是有益处的,哲学讨论出来的思想是很有启发性的。

黄铁军指出,对于哲学家参与讨论是赞同的,但是讨论的是如果技术走太快,捅出篓子来如何解决的问题,哲学家提出的路线就不太现实了。

如果抛开意识形态,对于一个具体的任务,能够自动分解之后用机器学习解决,以实现技术层面的人工智能,朱松纯不否认这种路线,这与人脑的分区是相同的,至于怎么综合起来达成共识,还需要一个自洽的解释,这有另外的方法来做。

黄铁军则对此持否定的回答,他说,只要读一下图灵的论文就知道答案,1936年的文章说的很清楚,正是因为不可计算理论的奠基才有了计算机。结论很清楚,即不可能设计一台机器把所有可计算的过程来自动完成,也不存在一个机器能分配任务。

文继荣首先针对人工智能程序和普通程序作出区分,即程序是否具有人的特质,包括以下几个方面:

  • 灵活性,处理各种不确定性
  • 自适应性,能够适应不同的变化,能够自学习
  • 可解释性,可解释性背后的含义是人的理性
  • 创造性
  • 自主性

然后,他分享了自己对人工智能的一个分级:

Level 0:能够完成固定逻辑任务,就是预定义逻辑任务,也普通程序。

Level 1:能完成特定领域任务,不管用大数据方法或其他方法,它可以处理不确定的输入、可泛化,像人脸识别。

Level 2:可以对结果行为可解释,能够从相关到因果。

Level 3:通用人工智能的东西,这就需要具有多领域的自适应性,并且尝试推理等等,能够在多个领域来自由游走。

Level 4:系统具有创造性,AI产生的一些新的、有意义的东西,比如真的能够写出一部小说了,但是这个东西必须是要有意义的。

Level 5:具有自我意识。

朱松纯认为,这个分级在各个垂直应用行业是非常有意义的,这能使目标和任务变得非常清楚。但是如果是通用的人工智能,整体的分级目前还很难,因为到底包含有多少个模块和功能,在整体的框架和维度没有说清楚之前,可能会引起很大的争论。

更简单的情况,可以把它说成智商。比如,智商有多少维度,为什么我们测人的智商是从0到150,这就是个分级,人也可以分级。为什么人类比动物聪明?为什么有的人比较聪明?天才是为什么?天才到底是因为什么变成了天才?数学天才还是下棋天才?这就是多种维度,这些维度在大的空间里面是有限的还是无限的?任务的边界在哪儿?智能的边界在哪儿?智能极限在哪?

原来图灵有一个停机问题,其实学习也存在停机问题,学习的极限就是停机问题。是什么东西决定了智商的极限、学习的极限,这可以作为一个科学的问题来研究。

张钹对朱松纯的观点表示赞同,对于具体问题要进行分级,这对于研究是有意义的,比如自动驾驶现在分成五级,这样就知道这个阶段究竟可以做到什么程度。但对于整个的智能进行分级很难,这涉及到了很多方面,而且分级的可能性也比较小,特别是对于通用人工智能,要有明确的定义。

机器和人要形成互补

正如朱松纯所说,现在数据的开放共享,甚至是竞赛,都有可能是陷阱,而这对未来的AI发展可能造成障碍。

黄铁军指出,这不是阻碍,是一个重要的阶段。人从单细胞生物进化到现在,也是大数据训练出来的结果,广义上讲,大数据是统一的。现在能收集这么多数据变成标好的图像,这只不过是一种比较僵化的大数据,从大的思路上讲是必要的,如果没有足够的数据和环境刺激,很难做出更强的智能。

张钹认为可以利用大数据和计算机处理数据的能力,发展出比人类更强的机器。机器不一定要和人类完全一样,它在某些方面比人强,在某些方面比人弱,这才是被需要的,人和机器形成互补,以建立和谐的人和机器共同体。

隐私与伦理需要交给公众去选择和决定

第二个“不能”的“能”和第一个“能”意思也还不一样。现在随着AI技术发展,能通过视频自动观察学生上课的专注度,也能在视频中就抓取到个人信息。而在美国加州,5月份通过了网络隐私法保护,禁止在任何公共场所使用拍照的人脸,甚至包括警察抓小偷。

关于隐私是否应该开放以做出更多技术发展,黄铁军认为,人工智能技术嵌入社会生活,过程中一定需要适应过程,这个适应过程是双向的,既要技术适应人类社会,也需要人类去适应技术。

张钹指出,这属于人工智能管理问题,涉及到三个层面:误用了人工智能的技术、滥用人工智能技术、利用人工智能技术进行国家与国家或集团与集团的对抗。这三个层面是不一样的,应该采取不一样的治理方法。

朱松纯认为,隐私被暴露意味着对自由空间的侵犯,这个问题应该由社会来回答和决定。就像伦理道德一样,这是一个相对的概念,是在人和人交流过程中达成的共识,这也是随着时间在改变的。像人脸识别系统,在机场、火车站运用非常方便,但这也需要公众自己选择,公众如果通过法律不让你这么做,那就不能做。

文继荣指出,在中国可以看见人脸监控还是比较普遍的,跟这两个国家的特点有关系。西方更强调个人自由,中国更强调集体主义。也不能简单说,加州不让做,中国就一定要效仿。但是这其中边界要交给人民去决定。另外,人工智能要可控,现在深度学习黑箱很麻烦,如果其中的可解释性、可控性解决不了,这才是真正危险的东西。

最近各个国家、地区都相继发表了AI宣言,北京也发布了《人工智能北京共识》,黄铁军对此展开了详细讨论,他说,发展人工智能的宗旨是让它造福、服务于人类。在现阶段或者在未来的一段时间之内,我们确实要考虑到人的利益、幸福感,但是从长远来看,还是要跳出以人为中心的思维惯性,来考虑智能在地球、宇宙的意义下的未来。那个时候就不只是智能怎么服务于人,而是人和智能如何共处、共融,如何深入发展的问题。

人工智能的发展同样离不开伦理,在伦理以及AI发展的边界的问题上,张钹认为,这是一个很复杂的东西,一两句话说不清楚,人工智能的治理的几个层面,其中就涉及到伦理,具体到技术问题,还得根据具体场景界定。

朱松纯也认为这个问题很难,现在大概花不到1000美金就可以制造杀人武器,无人机和摄像头有人脸识别就可以开枪了,这都是非常危险的,肯定也无法阻止。既然这个工具产生了,他拿这个工具砸银行或者干什么是人的事情,在这个方面科学家阻止不了他,只能通过社会去做。

将来最好的办法是计算机自身能够形成一定的伦理,它能够判断这么去做会造成的社会后果是什么,这种能力其实是一般人基本的东西,但如果机器不具备这种能力,不去考虑后果的话,每个机器人都是潜在的威胁。

AI Time由一群关注人工智能发展的青年人创办,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法、场景、应用的本质问题进行探索,展开辩论,碰撞思想,打造人工智能知识分享的策源地和聚集地。大数据文摘作为合作媒体将长期合作报道。

感兴趣的小伙伴还可以点击下方链接,查看前七期的内容:

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-11-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据文摘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
机器翻译
机器翻译(Tencent Machine Translation,TMT)结合了神经机器翻译和统计机器翻译的优点,从大规模双语语料库自动学习翻译知识,实现从源语言文本到目标语言文本的自动翻译,目前可支持十余种语言的互译。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档