为什么机器人抢不了你的工作,至少现在还不行!

玛德林(Madaline)是第一个。

早在1959年,她就凭借超凡智慧解决了一个棘手难题:电话线路上的回声。当时,长途电话中每次通话声音都会有回响,造成通话者的很大困扰。

玛德林能够识别输入与输出的的相同信号,然后用电子的方式删除回声,解决了这个问题,这一简洁的解决方案沿用至今。当然,玛德林不是人类,而是一个多元自适应线性神经元(Multiple ADAptive LINear Elements)系统,简称“Madaline”。这是人工智能首次应用于工作领域。

今天,人们普遍认为智能计算机会抢走我们的工作,在你早餐还没吃完以前,它就已经完成了你一周的工作量,而且他们还不休息,不喝咖啡,也不要退休金,甚至不用睡觉。但事实上,虽然很多工作未来都会自动化,但至少短期内,这种新品种智能机器更有可能是与我们一起工作(而不是取代人类

虽然人工智能机器在很多领域建树非凡,譬如预防欺诈,甚至比医生还可靠的癌症诊断。但现今最尖端的人工智能机器也跟一般人脑智力相差甚远。

麦肯锡2017年的一份报告认为,在现有科技下,只有5%的工作可以完全自动化,60%的职业中有大约三分之一的工作可由机器人完成。

千万别忘了,并非所有机器人都使用人工智能——有些用,很多不用。问题是,阻碍智能机器人通过人工智能接管世界的毛病,也恰恰是它们与人类共事显得非常糟糕的原因。谷歌的相片识别软件曾经将黑人的脸辨认为猩猩,人工智能机器也不能完全自定义目标,解决问题,甚至是运用基本常识都有问题,这些新一代机器工人所缺乏的这些技能,对于人类,即或是最愚钝者,也是易如反掌。

法则一:机器人不会像人类一样思考

大约与玛德林革新长途电话的同时,英籍匈牙利哲学家波兰尼(Michael Polanyi)在苦苦思索人类智力的问题。波兰尼意识到,人类的有些技能,例如使用准确的语法,可以轻易地归纳成规则并向他人解释,有些则不能。

人类能不自觉地运用所谓的隐性能力,用波兰尼的话来说是"人类所知多于所能表述"。这包括骑自行车和揉面,以及更高水平的实践能力。唉,如果我们不懂规则的话,就不能把规则教给一台计算机。这就是波兰尼悖论。

为了解决这个问题,计算器科学家没有试图逆向设计人类智力,而是给人工智能开发了全新的思考方式——用数据思考。

微软研究院(Microsoft Research)高级研究员卡鲁阿纳(Rich Caruana)说:"你可能以为人工智能的原理是我们先了解人类,然后以同样的方式构建人工智能,但事实并非如此。"他以飞机为例,我们早在详细了解鸟类飞行原理之前就造出了飞机,使用的空气动力学原理不一样,但今天我们的飞机比任何动物都飞得更高更快。

与玛德林一样,许多人工智能主体都是"神经网络",它们通过分析大量数据,构建数学模型来学习。例如Facebook用大约400万张照片来训练人脸识别软件DeepFace。DeepFace在标注为同一个人的不同图像中寻找模式样本,最终学会人脸匹配,成功率达97%。

法则二:机器人新朋友并非绝对可靠,它们也会犯错

然而这种依靠数据的思维方法也可能会犯下大错,例如某人工神经网络曾经把3D打印的乌龟认成了步枪。因为这个程序无法进行概念推理 ,不会想到"这个东西有鳞和壳所以可能是只乌龟"。相反,它们是根据模式思考——这个例子中是以像素为单位的视觉模式。因此,改变图像中的某个像素,一个合理答案就可能演变成无稽之谈。

而且它们也不具备工作中必不可少的常识,不能把已有知识运用到新情境中。

DeepMind人工智能就是一个经典案例。2015年时DeepMind获令操作经典街机游戏《乓》(Pong)并要取得高分。如你所想,它几小时就击败了人类玩家,而且还开发了全新的获胜方式。但是让它再去玩类似的另一款游戏《打砖块》(Breakout),人工智能又得从零开始学起。

开发人工智能的迁移学习能力已经成为研究的一大领域,例如一个名为IMPALA的系统已能在30种情境下转换所学得的知识。

法则三:机器人无法解释自己的决定

人工智能的第二个问题是一个现代版波兰尼悖论。我们并不完全清楚人脑的学习机制,因此我们让人工智能用统计学家的方式来思考。讽刺的是,我们现在对人工智能如何思维也知之甚少,于是有了两套未知系统。

这通常被称为"黑匣子问题"——你知道输入的数据,也知道得出的结果,但不知道眼前的盒子是怎么得出结论的。卡鲁阿纳说,"我们现在有两种不同的智能,但两种我们都无法完全理解。"

人工神经网络没有语言能力,所以无法说明其所作所为及原因,而且跟所有人工智能一样也没有常识。

法则四:机器人可能有偏见

人们越来越担心一些人工智能的运作可能会偶尔藏有意识偏见,譬如性别歧视或种族歧视。例如最近有一款软件用来评估犯人再次犯罪的可能性,它对黑人就双倍的严苛。

这完全取决于人工智能受到怎样的训练,如果它们接收的数据无懈可击,那它们的决定就很可能正确,但多数时候人的偏见已经夹在其中。谷歌翻译里就有很明显的例子。一位研究员在去年出版的《传媒》(Medium)杂志中指出,如果在谷歌翻译中把英文"他是位护士,她是位医生"翻译成匈牙利文再译回英文,翻译机给出的是相反的句子:"她是位护士,他是位医生"。

翻译机接受了一万亿网页内容的数据训练,但它只能以寻找模式样本来运算,譬如它发现的医生以男性居多而护士以女性为主。

另一种可能出现偏见的原因是数学加权(数学计算中将参数比重加入计算称之为加权)导致的。跟人一样,人工智能也会对数据进行"加权"分析——看哪个参数更重要。某种算法可能认为邮政编号跟居民信用评分是有关系的(美国已有这样的实例),这就会出现歧视少数族裔的计算结果,因为他们可能住在较贫穷的小区里。

不仅仅是种族歧视和性别歧视的问题,还会有我们从未想到过的歧视。诺贝尔奖得主经济学家卡内曼(Daniel Kahneman)穷其一生研究人类思维中的非理性偏见。他在2011年接受魔鬼经济学(Freakonomics)博客访问时,很好地解释了这个问题。他说:"本质上无论是人还是人工智能,经验法则都会造成偏见,但人工智能的经验法则未必与人的经验一样。"

机器人的时代即将到来,并将永远改变未来的工作,但在它们变得更像人类之前,还需要我们守护在它们旁边。令人难以置信的是,硅谷的同事似乎在这方面做得非常之出色。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181122A21TH800?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券