讲科技:伪人工智能的是非曲直

第1518天

微信号:刚刚讲过

实际上在很早之前的机器化甚至是机械化工具出现时,都会有一个重要前提,就是生产量要达到一定规模,否则使用机器的成本,反而会高过人工

人工智能方兴未艾,同时也和任何一件热点事物一样,难以避免地成为各种原因下的山寨品、伪装品集中的区域。

为什么会有伪人工智能出现呢?这是因为根据人工智能发展的方向,无非有替代人类思考分析应对与替代人类机械重复劳动这两个大方向。而在这两个大方向中分别对应了两点重要原因:

对于思考应对的技术还存在缺陷:

这个原因也分两种情况,一种情况是整个社会技术难以达到,这方面最典型的案例便是去年在日本的一次TGS展上,日本模特高山沙织以非常逼真的模仿仿生人的视频走红,却被许多媒体误称为当前机器人制造已经达到了相当高的逼真程度。而这些讹传,也是从另一个侧面表现出了当前人工智能在模拟表现人类表情、气质方面仍然存在着极大的缺陷——刻意表现出无机质感的模特,反倒会成为“最像人类的机器人”。

而另一种情况是只限于伪造者本身的局限,导致效果不理想或者说不准确,于是就通过人工干预甚至是直接操作,来假装人工智能的结果。国外就有媒体揭露,某些公司在大众科技博览会上展出的聊天机器人,面对围观者提出的各种刁钻问题都对答如流,实际上却是躲在背后的人工通过变声器而完成的。

而网上曾流过的一个日本系列漫画里就幻想过,所有的验票闸机、ATM机、烤面包机等智能自动化设备,其实都藏着一个人,他们不辞辛苦地地检验车票、数钱、烤面包等等,笔触大胆、令人不由莞然一笑。但反过来也是通过嘲讽的线条,让我们反思,不计成本一味推广的人工智能其本意是什么呢?

对于重复劳动缺乏足够的应用量:

其实这点原因非常容易理解,并不只是在人工智能时代才会发生。实际上在很早之前的机器化甚至是机械化工具出现时,都会有一个重要前提,就是生产量要达到一定规模,否则使用机器的成本,反而会高过人工。而且更加依赖于通过海量数据分析才能确保结果准确的某些AI技术,在数据不够多的情况下,还不如人工经验的判断更加有效果。

同样在国外的某个问答社区里,曾有人这样回答过一个关于“如何创立一家人工智能公司”的问题:先雇一大批廉价劳动力,让他们假装成人工智能为客户提供服务。然后以相对更准确的结果获得业界赞誉,收获更大的市场需求,继而获得投资,再去购买真正的人工智能技术来应用。

不过,除了以上两点重要原因之外,在当前的人工智能领域,却因为本身技术发展所需要足够的学习与训练,所以需要大量借助于人工的辅助,从而在表面上造成了人工与智能格格不入,甚至人工成份远远大于智能,更引发了大众的猜疑,而这些倒并非属于是“伪人工智能”的范畴:

打个比方,合格的人工智能在具备了成熟的算法之后,也就像是初生的婴儿一样,仍然需要足够的学习。只是它们的学习更需要专业人工给予支持。比如说围绕着AlphaGo的身边,尤其是在初期,就会有着大量的工作团队分别搜集、分析并对应输入各种围棋对战棋局供其学习。也正因为如此,一开始有输给AlphaGo的棋手就表示不服气:我是在与一大群科学家们对战。当然,AlphaGo进入到后期,开始摆脱人类训练,进行自我深度学习后,便真正展现出人工智能的强大能力。

对于交通图像识别的人工智能技术中,同样存在着非常关键的一个研发阶段,那就是需要有大批的人工,反复查看人工智能对于摄像或传感画面作出的分析与判断,并相应帮助其标注画面里的汽车、行人、树木、宠物等等关键物体。而这些看起来有点滑稽的人工校准,实际上正是训练人工智能不断优化自己的算法判断的重要阶段。

再者说来,至少在当前,最理想、最高端的人工智能也无法解决许多在道德层面上的选择与判断问题。例如在交通事故中到底是撞人还是撞车的选择,在著名的火车扳道工难题中到底如何扳道的选择。人工智能的发展与努力,并非能够解决人类社会中的所有难题,也不会因为这些问题的无解而证明自己的无能。

曾有人担心,未来的人工智能是否会因为自己的运算,认为发动战争是最佳解决方案而制造出末日危机。其实这个问题与上面两个难题是一回事。我们只需要明白,我们不需要人工智能去包办一切,它只是发挥它的最强能力,以最高效率计算出最佳或者最全面的结果,而最终的决定,仍然需要人类自己作出决策!

微信号:just_now_say

你若喜欢,欢迎分享,

申请转载,请先赞赏!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180716A0CDYJ00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券