图灵说:咱的末日要来了

末日

图灵是最早提出计算机概念的人,他还组装了第一台通用型计算机,the Bombe。这台计算机破解了纳粹密码,挽救了成千的生命。图灵为战争所做的贡献,为计算机学科所做的贡献,无与伦比。图灵之于计算机科学,如爱因斯坦之于数学和物理。

但是,二十世纪五十年代,英国政府认为图灵是罪犯。这个指控的讽刺和不公正程度让人无语。二战期间,作为挽救了最多生命的英国人,他被认定犯罪,仅仅是因为自己是同性恋。

当时,英国政府称其行为“极其不端”。他面临监禁或者化学阉割的惩罚。1954年,他41岁,选择了自杀。

图灵的去世是全世界的巨大损失,这样讲完全不过分。他去世的前两年,开始思考人和机器智能的关系。现在,这已经是日常生活的一部分。人工智能无处不在,GPS、电脑游戏、手机应用。

当年,破解密码的计算机有房子一样大小,认为这个设备有一天可以模仿人类的智力,几乎是天方夜谭。图灵理解并提出了人工智能的概念,而且,他创建了一些指标,可以帮助我们判断AI的人工智能程度。

图灵测试

现代AI科学家认为图灵测试有些简单,原因是计算机智能远远不止模仿人类的对话。即便如此,图灵的测试自1952年以来,没有人真正地解决过。

测试很简单。牛津大学1950年十月出版的MIND,一本心理学和哲学论文的季刊,有图灵的一篇论文,《计算机器和智能》。这篇文献里有很多重要概念,其中之一就是他所谓的“模仿游戏”。

有一部2014年的同名电影,扮演福尔摩斯的卷福担任主角。电影讲述的是图灵的故事,值得一看。模仿游戏的概念包括人和机器可以通过另外一个人,“审问者”,进行沟通。

审问者会向人和机器发送文本信息,让他们回复。如果审问者不能看出哪个回复是来自于人,哪个来自于机器,计算机就算通过了图灵测试,因为机器完全可以模仿人类,无法辨别真伪。

大部分AI科学家都会告诉你图灵测试很有意思,但是不是AI的关键所在。我们不需要AI模仿人类。我们需要AI帮助我们完成真实的任务。虽然如此,多年来,开发人员没有对图灵测试置之不理。

有一个老的计算机游戏,ELIZA,和图灵测试有一定的关系。ELIZA来自于1966年MIT的AI实验室。游戏比较初级,多聊一下就会露馅,但是还是可以看到Alexa交互方式早期的痕迹。

当然,AI经过多年发展,今非昔比,是客户服务电话树、自动助手以及其他客户管理工具的基础。

尽管AI变得越来越有用,人们还是不会将他们和真正的人类混淆。不过,这种情况可能持续不了太久。

GOOGLE DUPLEX

上周Google I/O大会上,谷歌展示了Google Duplex。这是一个做电话预约的工具。操作方法是你可以告诉自己的安卓设备需要预约的某个或者某些时段。Duplex就会从谷歌云播出电话,和电话那头的人交谈。

让我再明确一下:Duplex的对话没有发生“恐怖谷”反应。 (译注:恐怖谷理论是一个关于人类对机器人和非人类物体的感觉的假设,它在1969年被提出, 其说明了当机器人与人类相似程度超过一定程度的时候,人类对他们的反应便会突然变得极其反感,即哪怕机器人与人类有一点点的差别都会显得非常显眼刺目,从而整个机器人有非常僵硬恐怖的感觉,有如面对行尸走肉。)你无法分辨对方是机器人。他通过了图灵测试,不是文本上的,而是实实在在的对话。

Alphabet的主席John Hennessy在I/O的讲话中证实了这一点。Henessy可不是例行公事的公司高管,你最好了解一下除了谷歌母公司主席这个职位,他还有什么成就。

Henessy曾经是斯坦福大学创建RISC (Reduced Instruction Set Computing)处理器团队的一员。几乎所有的智能手机都在使用这个处理器。他是斯坦福大学计算机系主任,工程系主任,最后成为了斯坦福大学校长。他获得过很多荣誉。就在今年,成为著名的图灵奖获得者。

换言之,没有比John Hennessy更有资格决定图灵测试结果的人了。

Duplex和AI代表未来

眼下,谷歌只是将Duplex作为一个肢体不全、只是帮忙做做预约的机器人朋友。不过,显然更多的发展还在后面。人机语音交互有非常多的好处。(后面还会谈不好的地方)

比如,无人驾驶汽车。在我父母亲最后的日子里,他们还很清醒,也有行动能力,只是不能安全驾驶,需要有人来开车带他们出去。一辆无人驾驶的汽车,加上语音,可以让他们更放心用科技手段四处活动。

自动助手也许能提供实实在在的帮助。IBM的Watson在将机构专长用于造福人类方面成绩斐然,解决方案涉及内容包括食谱、供应链,甚至医疗诊断。

我们完全可以憧憬未来有一天,人机之间可以毫无障碍地自如对话,解决实际的问题,让我们可以有更多时间做重要的事情(或者,至少不会在电话上没完没了地等待。)

情况发展也许会很糟糕

三十年河东,三十年河西。有志者事竟成。新技术的光辉下,也会有暗影。无障碍的人机对话,后果可能很糟糕。

再拿谷歌举例,有多少人接到过谷歌机器人的电话?我知道有不少人,因为当我写这个的时候,很多人在推特和脸书上回复我。大部分是骚扰电话。

我们知道是骚扰电话,是因为当那一边开始“讲话”的时候,对话就进行不下去了。但是,如果我们察觉不到对方是机器人呢?如果电话听起来就像是真人打来的呢?

如果骗子可以利用AI,各种心理学知识、听着与真人无异的电话员以及将其大规模实施的能力?真是不敢想下去。

还有支持部门的工作?美国人现在抱怨这些外国人有口音。有时候,抱怨的是口音很难懂,有时候抱怨的是美国人被抢去了工作。

不管怎样,那个有口音的人还是个真实的人,需要挣钱养家糊口。如果所有这些工作,急救室调度员、电话销售以及其它所有要求电话技能的工作,都被AI取代了呢?有多少工作因为Duplex而失去?

什么时候Duplex可以和Duplex进行交流?需要预约的机器人打出的电话被另一个机器人接起来?电脑之间会“哼哈”一下吗?还是会有API触发功能,开始互相发送XML短信?

选举的时候又是什么情形?类似Duplex的系统假作候选人怎么办?多少选民会认为自己接到的电话是真实的,和候选人的对话是真实的,而实际上这就是另外一种可以通过信用卡购买的SaaS服务?

冒名顶替的情况怎么处理?如果Duplex一类的技术越来越发达,你的电话会不会冒充你?如果你的电话被逼儿拿到了怎么办?你的家人会不会认为是你打来的紧急电话而离家?

关于这项技术的坏处不胜枚举。如同之前所有的技术一样,好坏参半。但是AI越来越聪明,如今,越来越可信,我们是否要采取措施,防止终结者式的结局发生?

我们能够把精灵装回瓶子里吗?

可以预期的是,会有立法约定机器人打电话的时候要声明自己是机器人。遗憾的是,今日的世界,跨境电话很容易拨打,立法不可能保护我们不受来自其它国家的打击。病毒软件是非法的,但是并没有销声匿迹。

图灵同期的科幻作家Isaac Asimov笔下关于未来的机器人是积极的。有“三大法则”管控着人工智能。

机器人不能伤害人类,也不能在人类受伤害的时候,袖手旁观。

机器人必须遵守人类指令,除非和第一条法则有所冲突。

在不与第一和第二法则冲突的情况下,机器人必须保护自己。

在《银翼杀手》之前,Asimov就预测了人类复制机。1953年出版的Caves of Steel(以及续篇The Naked Sun),Asimov创造了R.Daneel Olivaw,一位复制出来的侦探(也是个好人)。有时间的话,你应该读一下这两本书,Asimov描述的未来里不止有复刻人。

他还认为人们在自己的家就可以通过摄像对话。我在周五的时候,就会在家里和另外三位ZDNet的专栏作者视频通话,讨论5G和其它未来的通讯技术。

我认为技术是有流动性的。几乎所有的创新都有利有弊。Duplex很神奇,同时也很恐怖。

让我担忧的不是我们可能拥有这项技术,我相信到了Caves of Steel里描述的那天,一些公司会实施类似三大法则之类的东西。

不,机器人不让我害怕。是人类让我害怕,那些在极端国家的,和犯罪组织相关联的,甚至那些太想成功而罔顾他人的人。

这些人让我害怕,因为人工智能,到了无法无天、邪恶的人手中,是不会遵循任何法律的。我们也许无法阻止这种场面,也就是说我们可能会生活在一个机器人吃机器人,也吃人的世界里。

鬼才信你晚上会睡得着。

最后一点想法:邪恶并不总是轻易就能看出来。

英国政府对待图灵的行为不仅不公平、可怕、难以置信地短视和愚蠢,而且恶毒。但是,这一切借的是女王和国家的名义。我们要警惕,我们(或者我们的领袖)可能认为部署AI系统是有益的,但是结果却可能完全相反。

英文原文(ZDNet):https://www.zdnet.com/article/google-duplex-beat-the-turing-test-are-we-doomed/

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180621G1Q7RO00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券