人类文明新一轮的冲击,人工智能崛起!

去年的世界互联网大会在乌镇举行,到场的有马化腾,丁磊,杨元庆,雷军,张一鸣等。

热点有两个。

一个是创新。

一个是人工智能。

创新就不说了,老生常谈,我聊聊人工智能吧。

比尔·盖茨在Reddit的“Ask Me Anything”论坛上表示,人类应该敬畏人工智能的崛起。

盖茨解释道,人工智能将最终构成一个现实性的威胁,但它在此之前会使我们的生活更轻松。

不过有趣的是,微软的研发董事总经理埃里克·霍维茨持相反观点,认为世界末日的场景纯属“科幻”

英国理论物理学家史蒂芬·霍金警告说人工智能的发展可能意味着人类的灭亡。

在接受英国广播公司的采访时霍金说,这种技术会迅速演变并超过人类,那时将会出现电影《终结者》中想象的一幕。

“我们已经拥有原始形式的人工智能,而且已经证明非常有用。但我认为人工智能的完全发展会导致人类的终结”,霍金教授在星期二播出的采访中说。

电动汽车公司特斯拉、商业太空飞行公司SpaceX首席执行官埃隆·马斯克(Elon Musk)不是人工智能的坚定拥护者,相反他称后者为“人类生存的最大威胁。”

马斯克警告人工智能存在的巨大威胁,呼吁对人工智能加强监管,以确保“我们不会做蠢事”。

他日前参加麻省理工学院航空与航天学院百年研讨会时表示:“如果让我猜人类最大生存威胁,我认为可能是人工智能。因此我们需要对人工智能保持万分警惕,研究人工智能如同在召唤恶魔。”

人工智能研究的目的是创造智能机器,可以有效地解决问题,甚至有时候比人类做得更好。许多科学家希望确保人工智能可以发挥积极作用,但在科幻小说或电影中,人工智能经常让人类陷入噩梦中。比如《2001》、《终结者》、《银翼杀手》等电影中,智能电脑或智能机器最终将武器对准它们的人类创造者。

马斯克说:“在所有故事里,似乎总有拿着五角星和圣水的家伙,就像他确保自己能控制恶魔一样。但这并非总是管用。”

这并非马斯克首次呼吁警惕人工智能。8月份,马斯克就曾发文称:“我们需要万分警惕人工智能,它们比核武器更加危险!”

(以上信息,来自各权威大佬发言,其实还有很多名人都这么说过,就不多举例子)

好了,我开始说。

人工智能(Artificial Intelligence),英文缩写为AI。它是各种门科集合的一门新的技术科学。 人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。

目前的人工智能并不是很可怕。它们是一些不会自己思考的程序,设计者也没打算让它思考,实际上设计者也不知道怎样才能让它思考。它能做的事情就是按照设计者的安排,一步一步完成既定程序。

简单说,目前的人工智能的现状是“弱人工智能”。

而真正令大佬们真正担心的是“强人工智能”的出现!

强人工智能实际上必须基于人工生命才能成型,强人工智能要求程序有自己的思维,能够理解外部事物并自发做出决策甚至行动,其表现就像一个“人”一样,甚至很可能比人的反应更杰出、更可靠。

反过来,这些能够自行思考的人工生命,也有背叛人类的可能……甚至于很可能会背叛人类。

对于人工智能可控性的担忧主要就在强人工智能上。

我觉得,这帮科技精英们有对强人工智能的担忧是很合理的,作为能影响人类社会科技研发方向的人,他们有责任提醒大家“这个方向上有狼往前走要小心”,有责任提醒大家人工生命的研究要在严格控制条件下进行。

人类统治地球告诉我们一个道理——智慧就是力量,也就是说当一个超级强大的人工智能被创造出来,将会是地球上有史以来最强大的东西,包括所有生物,包括人类——都将在人工智能的下面。而这一切的发生,一百年内有望实现。

说一下,为什么人工智能会让人这么害怕,甚至威胁到人类文明的地位,但是我们还是避免不了人工智能的诞生。

拿人类,猩猩,人工智能做比较。

猩猩和人类最大的差别就是猩猩理解不了人类能做的事情,他根本理解不了这些事情的存在。就比如高楼大厦能接受,但是猩猩永远理解不了高楼大厦是人类造的,它会想象这是天然存在的,是一下子就有的。

人类和人工智能呢?当人工智能开始不断自我完善,不断进化的时候,人类将要面对的是和猩猩一样的处境,那就是不理解,我们赐予它们进化的权力,但是我们根本了解不了它。

人工智能最后的结果就是:它进化到一定的程度的时候,那么人类就会发现根本理解不了它在做什么。

人类的大脑是靠神经元组成复杂的网络,虽然单个微乎其微,但组合在一起是科学家也搞不懂的网络系统。

而强人工智能最大的问题硬件水平跟不上,无法模拟出人类那么复杂的大脑系统,但反而言之的是硬件水平发展几乎是爆炸式的速度,想想十几年前的cpu吧,再看看今天,以后的进步真的是谁也说不准了。

首先是速度。

人脑运内部传输速度是每秒120米,电脑是光速。

容量。

人脑无法变大,女性的盆骨决定了人脑的大小。电脑容量可以说是无限,不丢失。

可靠性和持久性。

人类受限制于‘熵’。

而电脑可以24小时不停工作,稳定高效。

考虑到强人工智能的种种优势后,人工智能仅仅会在‘人类智能水平’上简单停留然后迈着大步向超越人类智能理解的基础上前进。

但真的就让超级人工智能发展出来,我们人类文明的威胁是什么?

首先我们得知道,超级人工智能和电脑的思考方式一样,而我们不能把它们拟人化,因为以人类的视角来看能达到人类智能水平的只有人类,要理解人工智能,我们得明白它是非常聪明的,但是是完全异己的存在。

电影里面的机器人有好有坏是我们把它们拟人化,让我们觉得它们有人类的感情和道德基础。

Siri给我们的感觉很像人类,是因为程序员故意这么去设计的,我们也就会相应的认为超级版Siri也这么温柔,但其实并不是这样。

人类给人工智能设定的目标是什么,它出发的动机就是什么。人类可能在途中忘记,但是人工智能并不会。

一个超级人工智能是非道德的,并会努力实现它原本被设定的目标,而这也是人工智能的危险所在。

一旦超级人工智能出现,任何阻止它的行为都是可笑的。

就比如人类给超级人工智能设定的目标是让人类安全,那么会发生什么。

机器人会建造一个监狱把所有人类控制在里面,软禁着。它们认为人类这样是安全的。

但是这并不是我们出发的目的啊

所以你看又说回来了,就是当超级人工智能被创造出来的时候,我们人类理解不了它们的想法。

再比如智商80我们理解就是不聪明,智商135是聪明。但智商9999292的出现我们会理解成什么?

我们语言系统中根本没有这个的存在,

所以就是无法理解。

最后

本文来自企鹅号 - 凤凰科技媒体

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏华章科技

AI校招程序员最高薪酬曝光!腾讯80万年薪领跑,还送北京户口

作者介绍:克里斯蒂娜酱,互联网行业招聘专家,深耕技术领域,多年一线互联网公司和海外顶级人才探索经验。

682
来自专栏量子位

为了VC+AI,李开复挖来谷歌风投技术合伙人张拓木

上个月,创新工场刚宣布完成第四期5亿美元基金募集,并表示会继续加大AI领域的投资,朝着Tech VC的航向加速。

824
来自专栏新智元

脑科学大国之争:人工智能发展将获全新“助推器”

【新智元导读】中科院外籍院士蒲慕明在接受采访时说,由中国科技部和国家自然基金委牵头的中国脑科学计划有望于今年年内启动。这是国内人工智能产业发展的一个利好消息。 ...

35512
来自专栏AI科技大本营的专栏

AI一分钟|清华紫光斥资26亿美元收购Linxens;李小光任京东无人机首席科学家,负责无人机规划与研发

据路透社援引知情人士消息,清华紫光在洽谈收购法国智能芯片组件制造商 Linxens,并且双方已经在一个月前签署了约 22 亿欧元的合同协议,但是尚未公布。去年年...

1045
来自专栏量子位

气势汹涌,天津设立千亿级AI基金;刘强东否认会因AI开除一半员工

天津表示,未来将重点扶持机器人和软硬件。此外,天津市财政还会拿出100亿元扶持智能制造,并对落户天津的AI企业,提供人才落户、资金方面的多重奖励政策。

812
来自专栏数据的力量

“能人管理”最危险,“庸人管理”更可怕

966
来自专栏新智元

【给硅谷的信】:亲爱的硅谷,你从英雄变为恶棍,从偶像沦为笑柄

【新智元导读】Techcrunch 特约撰稿人、Village Capital 创始人 Ross Baird 日前撰写了一篇文章,以给“硅谷”写信的方式,对如今...

3347
来自专栏企鹅号快讯

直击乌镇:人工智能解决三个了不起的问题 统治人类言之过早

在人工智能技术高歌猛进的同时,物理世界和个人生活的界线日渐模糊,每一次新技术的革新,都引发人类对自我和世界认知的恐慌,也延伸出复杂的法律、伦理和安全问题。 在今...

1857
来自专栏VRPinea

【GMIC北京2017重点演讲】霍金:AI的潜在威胁不容忽视

39113
来自专栏镁客网

跨越一甲子的AI之路为何愈发坚定?我们与5位顶级大咖进行了深入探讨

1405

扫码关注云+社区