别再问AI什么时候统治地球了!这里统一给个回答!

曾经跟一个资深AI工程师聊天,

当时小耐一时脑抽,

问出了一个限制级的问题。

我拍着肩膀问他:

啊不是不是。。。不是这个问题。

我问他的是:

“当别人知道你是AI行业的人以后,问你的第一个问题是啥?”

大佬拿烟的手微微颤抖,

身体往后一倒,靠在沙发背上。

“他们通常问我的第一个问题是:‘AI什么时候会统治地球?’”

这样的担忧由来已久了,很多人不明真相的群众都担心过这个问题:AI发展下去会取代人类么?会统治地球么?

随便在某知名问答网站上,随便一搜,就能搜出一堆类似问题:

.......

而电影导演们也很热衷于诠释这种题材,绝大多数跟AI相关的电影,人类都是被虐的对象:

对AI的恐惧一半是源于未知:

“AI这么复杂,谁懂啊?怕怕~”

另一半是源于AI的强大:

“AI的脑子可是电脑啊!

可是钢筋铁骨啊!怕怕~~”

诸位看官,莫要惊慌,今天小奈就来为大家统一解决一下这个问题:

太长不看版

在可预见的未来,AI没可能统治人类。

正常讲故事版

很多人都在担心,AI要是有了人类的情绪,他们会不会思考“何为人性”?会不会考虑“我是什么”?会不会想要“争取权利”,进而“干掉人类”。

为了防止这件事发生,科幻小说泰斗,阿西莫夫曾经提出了机器人三定律的概念。

这三个定律将写进机器人的大脑,阻止他们的叛变。这三条定律就是:

第一:

不好意思又放错图了

第一:

第二:

第三:

机器人三定律虽然是小说家的创作,但是对后世的影响极大。

关于机器人是否有意识这个问题由来已久,很多大佬都研究过。计算机学的祖师爷艾伦·图灵就在1950年就提出了一个【图灵测试】来测试机器会不会有智能。

图灵测试是这样婶的:

把一个电脑和一个人类A关在一个房间里,有一位人类B询问者询问电脑和人类A问题,为避免语音语调等影响判断,最好通过在两个房间之间进行通讯来交流,或者问题和答案可以由中介重复。当询问结束后,由人类B来判断关在房间里的哪个是电脑哪个是人,如果他判断不出来,那就证明电脑通过了图灵测试,拥有了智能。

那么到目前为止有没有机器通过图灵测试呢?

有,还很多:

1966年,Joseph Weizenbaum创建了一个似乎通过图灵测试的程序——ELIZA——ELIZA是一个模仿心理医生的程序,它通过检查用户的输入中的关键词进行回复。ELIZA成功的愚弄了一些人,让他们以为自己在跟真人交谈,因此也被认为是第一个通过了图灵测试的例子。

2014 年6 月7 号,一款名为尤金·古斯特曼(Eugene Goostmanz)的聊天机器人,它伪装成了一个用第二语言沟通的13 岁乌克兰男孩儿,成功“骗过”了测试者,也通过了图灵测试。

相关的例子还有很多。

既然图灵老师的测试这么容易被破,那么现在出现了真正有智能的AI了么?

对不起,没有。

1980年,著名哲学家,约翰·塞尔提出了一个思想实验,名为【中文房间】。

【中文房间】是这样假设的,假设有一个房间,里面有一个完全不懂中文的美国人,这个美国人有一本书,书中记载了所有各种各样含有中文关键词的问题,和它们对应的中文回答。现在一个中国人把他的问题输入到房间里,房间里的美国人通过查找他那本宝书找到对应的答案输出到房间外面。

比如:他收到一个问题是“您吃了么?”,他通过查找宝书找到了这句应该用“我吃了,您呢?”来回答。

外面拿到答案的中国人会不会觉得里面的也是个中国人呢?

会的,美国人通过宝书规定的“程序”完成了足以乱真的回答,但是他根本不懂中文!

这就是对于那些通过图灵测试的AI的一种主流解释,实际上大部分AI也是这样工作的。

之前我们发布过一篇文章,是讲AI通过阅读大量的《人民日报》学会了“算命”,以奇高的准确率预测了中国将要发生的数次政策变化。

诶呀,真厉害,但是论文也显示,这台机器根本不懂中文,它只是在阅读文章中“关键词”统计关键词出现的位置和频率,以此来预测政策变化的可能性。

目前的AI依然是人类的工具,何为工具?就是人类肢体的延伸。

拿汽车为例,汽车跑起来比人快多了,但是从没有人担心过汽车会统治人类。普通汽车和智能汽车有啥不同呢?

传统汽车也有输入输出,人类脚踩油门,手把方向,汽车输出的是位移。而智能汽车呢?理想状态下,人类需要输入的是起点和终点的位置,智能汽车会根据位置信息进行自行开启,停止,减速减速,变向拐弯,避让行人。最终把你送到目的地。听起来高大上,但其实输出的还是“位移”而已。

输出端并没有变化,只是输入端大大简化了,很大一部分对于输入指令的拆解,细化和判断被内置到了程序里。

说白了,你让siri帮你找到某人的电话,它找到了,其实你自己打开通讯录,搜索联系人也能找到,只不过慢一些,但是输出结果是一样的。

AI并没有理解什么东西,你开着智能汽车让它载你去天安门,它并不能理解天安门是何物,你让siri帮你给表姐夫打电话,siri也根本不知道表姐夫是谁。它就像中文房间里的那个美国人,他不懂任何中文,却可以通过算法来输出答案。

人类是种很功利的生物,一切的功能都源于需求,比如说,我们制造了一个锤子,造它的目的是砸钉子,我就不需要锤子有“疼痛反馈”的功能,然后告诉我砸钉子的时候它有多疼。

况且,人类制造一个可以完成任务得AI要比制造一个可以理解任务的AI简单得多,根本没必要给AI真正的“智能”。这个真的太难了。

到目前,人类对于思维,自我意识,决策,思考这些大脑功能是怎么实现的,还一知半解,给机器人制造这些功能,人类连边都没摸到呢。

人工智能最有可能对人类造成的威胁是可能会取代一些本来由人类做的工作,比如不需要什么技术含量的重复性的工作,或者及其危险的工作,森林防火员,网络鉴黄师等。

机器可能会代替一部分人类,但是任何工具的发明都是为了解放生产力,发展生产力的,如果真的用机器代替了人,那么也一定会带来劳动关系的改变,生产成本的降低,社会结构的变化,最后受益的也还会是人类。

总之,大家不要再揪着你身边的AI大佬问题问他“AI什么时候毁灭地球了”,一是这个功能没必要,二是人类真的做不到啊!

这里是NEXTTECH。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181215A15UAJ00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券

年度创作总结 领取年终奖励