啥职业会被人工智能取代?麻省理工列新标准,看完感觉饭碗保住了

“就业末日”还说不上,但局面还是会越来越奇异。

对于人工智能(AI)带来就业末日的预言,很多人都趋之若鹜。吃这一套的人相信,在并不遥远的未来,AI和机器人肯定会窃取当前由人类占据的绝大部分职位。在几乎没有社会安全网的美国,这样的科技飞跃将引发社会崩溃,除非能出现急速的经济转型。

另一方面,事实可能并非如此。也许在现实生活中,很多工作是我们不愿意托付给机器人的——比如就业增速遥遥领先的医疗领域——甚或是机器根本就做不到的。

近期,MIT斯隆商学院研究人员埃里克·布林约尔松(Erik Brynjolfsson)和汤姆·米切尔(Tom Mitchell)发表政策论文,着眼于上述第二个类别。其结论概括起来就是,“就业末日”还说不上,但局面还是会越来越奇异。

“机器学习明显是一种‘通用技术’,就像蒸汽发动机和电力一样,催生了大量额外的创新和潜能。然而,对于机器学习系统擅长哪些项目,这方面并无广受认同的观点。因此,对于机器学习对劳动力的影响,以及对经济的影响,我们都没有形成共识。”米切尔和布林约尔松写道。“在很多工作中,有些部分也许是‘机器学习适用’的,但有些任务并不契合机器学习的标准;因此,就业所将受到的影响非常难说,并不是一些人所强调的那样,就是取代或替换那么简单。”

论文列述了“机器学习适用”任务的八大基本特征。这里就不逐一列出了,但其中几条值得一提。首先,机器学习需要定义明确的问题,输入数据要能可靠映射到输出预测。比如在医疗诊断中,输入病历,输出诊断。这是清晰映射。又比如输入狗狗照片,输出品种预测。或者,我们还能根据狗主人的照片,预测狗的品种,但这种情况下,清晰映射就不存在了,预测背后的因果关系就不容易找到了。

机器学习模型还需要大量的数据。它们得有学习的材料。要预测医疗诊断的结果,机器学习算法需要大量的训练数据,即大量病历,且由人类一一标记正确的诊断结果。只有经过这些数据的训练,算法在接到未经标记的新数据时,才能作出准确的预测。

还有几点不太容易想到。例如,机器学习模型在作预测时,需要相对简单的因果链条。比如,若要输入观察,并输出预测,基本上,输入必须和输出直接相关,不能在中间夹杂一连串的因果关系。另外,如果出现错误预测就是不可接受的,那机器学习也不管用。机器学习的准确率只要超过90%,就算是比较成功了。也就是说,我们觉得10%的错误率是可以接受的。但举例来说,在用计算机视觉为油罐车导航时,丝毫的差错都是不可接受的。

另外,有一些因素不太容易量化。比如人性。机器学习并不适用于情商与同理心。“结构化程度较低的任务,比如与其他医生互动,以及涉及大量情绪的任务,比如与病人沟通、安慰病人,这些就不适用机器学习了,至少目前而言不适用。”布林约尔松和米切尔写道。

看来,最有可能的情况是,机器学习所适用的并非完整的工作或职业,而是这些职业中的某些部分。机器学习还将继续发展进步,但它不会窃取所有的工作(不过肯定也会吃掉不少的工作),但它会成为很多职业中司空见惯的一部分。算法固然可以预测癌症诊断结果,但这并不意味着它会取代人类医生。更有可能的情况是,医生依然会是人类,而算法成了医生手中的利器。

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20180106B0SL8U00?refer=cp_1026

扫码关注云+社区