首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

当我们在谈论人工智能的时候,我们在谈论什么?

空白

通用人工智能和非公理推理系统

Artificial General Intelligence & NARS

授课人:

美国天普大学副教授 王培/北京大学信息科学技术学院教授副院长 李文新

1

1

4月底,国内第一本人工智能基础教材《人工智能基础(高中版)》正式发布。这是国内中等教育体系首次引入AI教材,也意味着人工智能教育在中国正式迈入基础教育阶段,成为每一个在校高中生都可以掌握的基本技能。

在对人工智能的态度上,一些人表示了忧虑,如:

霍金:人工智能会导致人类灭亡

比尔・盖茨:人类需要敬畏人工智能的崛起

马斯克:人工智能是人类生存最大威胁

人工智能到底是什么?

举个例子,有人会说:苹果Siri、百度度秘、微软小冰等智能助理和智能聊天类应用甚至美图秀秀的自动美化功能都是人工智能。

也有人会认为Alpha Go 、《钢铁侠》里面的Jarvis才是人工智能。

1

人工智能的

定义

AI

一种目前流行的观点认为。

按照实力,人工智能可以分为,

弱人工智能( Artificial Narrow Intelligence,简称ANI );

强人工智能( Artificial General Intelligence,简称AGI );

超人工智能( Artificial Superintelligence,简称ASI ) 。

本部分例证来源于网络。

「弱人工智能」

· Alpha Go就是弱人工智能的典型代表,简单地说,Alpha Go可以跟你对弈一场围棋,却不能跟你玩五子棋,因为Alpha Go的“大脑”里“学习”的都是围棋棋谱。ANI只专注于完成某个特定的任务,例如语音识别、图像识别和翻译,是擅长于单个方面的人工智能。它们只是用于解决特定的具体类的任务问题而存在。

「強人工智能」

· 创造强人工智能比创造弱人工智能难得多,在一些科幻影片中可以窥见一斑。比如,《人工智能》中的小男孩大卫,以及《机械姬》里面的艾娃。AGI系统包括了学习、语言、认知、推理、创造和计划,目标是使人工智能在非监督学习的情况下处理前所未见的细节,并同时与人类开展交互式学习。在强人工智能阶段,由于已经可以比肩人类,同时也具备了具有“人格”的基本条件,机器可以像人类一样独立思考和决策。

「超人工智能」

·《复仇者联盟》中的奥创、《神盾特工局》中的黑化后的艾达,或许可以理解为超人工智能。在ASI阶段,人工智能已经跨过“奇点”,其计算和思维能力已经远超人脑。此时的人工智能已经不是人类可以理解和想象。

如果把AI技术分为「前端的交互技术」和「后端的人工智能技术」。

前端的交互技术就包括语音识别、图像识别和自然语言处理;

后端的人工智能技术就是人工智能的核心算法,包括深度学习算法、记忆预测模型算法等。

这些前后端的人工智能技术在应用又可分为四类:语音识别、图像识别、自然语言处理和用户画像。

以上我们所举的例子则分别或混合的运用到了AI技术的四大类。

所以,“人工智能”这个词语,因为不同的人对其的不同理解、接触的不同层面会导致其对相关问题的不同回答。

那么,当我们在谈论人工智能的时候,我们在谈论什么?

2017小蛮腰科技大会演讲嘉宾——美国天普大学计算机与信息科学系王培副教授曾在《当你谈论人工智能时,到底在谈论什么?》向大家指出:

人工智能无非就是“让计算机像人脑那样工作”。

现在,计算机已经能够完成很多以前只有人脑才能完成的智力活动,这自然就会引出“计算机能否完成所有智力活动”的问题。

1)如果答案是肯定的,后面就可以考虑“怎样做”和“应不应做”等问题。

2)如果答案是否定的,后面就可以考虑“为什么”和“哪些能做,哪些不能做”等问题。

这已经就是人工智能的基本问题了。

现在回到我们开篇的问题:人工智能危险吗?

对此,王培教授的回答是:

“任何科学技术成果都是既能有正面后果,又能有负面后果的。我们所能做的只是尽量用其利避其害而已。”

且人工智能是否危险的核心问题应该是人工智能是否可控。如果可控,那么其危险性就和其它计算机技术无本质差别。否则显然有危险,而且智能越高越危险。

王培教授认为,真正属于人工智能独有的危险性问题是关于适应系统的。和计算系统不同,适应系统的行为不是完全由先天因素(初始设计)所确定的,而是同时取决于系统的先天和后天因素。这里的“后天因素”包括系统的全部经验,而不仅仅是一个有限的训练阶段。(在下面的论述中,“人工智能”将专指“通用人工智能AGI” )

假设现在有套系统,我们给其植入“元知识和元能力”,这就是这个系统的“先天”成分。它们使得系统以一定的方式和外界相互作用,并通过推理和学习来构建和调整其自身的目标、知识和技能,而这个过程中所用的“建筑材料”都来自于经验。那么现在为了防止它“作恶”,我们再“教会”它一些“道德准则”,比如“阿西莫夫的机器人三原则”。

那么系统一定会遵守这个原则吗?

不一定。

根据AGI的设定,它具有自我学习的能力。又有谁能保证符合现在普世价值的准则,在进过千万亿次的推演分析后还是否会符合人类的长远利益呢?

且由于适应系统的知识是囿于其过去经验的,因此不可能准确预测其行为的全部后果。即使它出于最良好动机的行为也可能导致不幸的结局。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180611B0DJPZ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券