美国公司英伟达(NVIDIA)发文公开了其自动驾驶汽车的深度学习机制。
深度神经网络的自主学习能力是它的一个强项,因为随着经验的增加,机器变得越来越好;该能力也是一个弱点,因为它没有代码可以让工程师来调整。它是一个黑盒子。
这就是为什么谷歌旗下Deep Mind公司人工智能“阿尔法狗”(AlphaGo)的创造者无法解释它是如何下围棋的。他们能做的只是看着自己的作品从初学者状态逐渐成长到能够打败世界上的顶尖棋手。
这种不透明机制对于游戏机是可以接受的,但对自动驾驶汽车则不行。如果一辆无人驾驶汽车出了差错,工程师们必须能够打开引擎盖,找到缺陷并修复它,以免汽车再次犯同样的错误。一种方法是用模拟的方式向人工智能先展示一个特征,再展示另一个特征,以此来发现哪些因素会影响决策。
汽车人工智能芯片组供应商英伟达表示,目前他们已经发现了一种更简单的方法来使人工智能变得透明。该公司汽车业务负责人在一篇博文中写道:“虽然该技术让我们能构建系统来学习处理我们无法手动编程解决的任务,我们仍然可以解释系统如何做决策。”
而且,由于这些工作是在构成神经网络的处理阵列层内完成的,所以结果可以实时显示,叠加在汽车前视摄像头图像上形成“可视化掩模”。到目前为止,获得的结果主要是机器转动方向盘,让车辆始终在车道内行驶。
该方法的工作方式是从网络的较高层获取分析输出,该网络已经从摄像头输入的图像中提取了重要特征。然后将该输出叠加到较低层上,对其进行平均,再将其叠加在更低层上,直到完全还原出原始的摄像头图像。
获得的结果是一幅摄像头图像,其中人工智能认为有意义内容被突出显示出来。而事实上,这些突出显示的部分正是人类司机视为重要的内容:车道标记、路边、停放的车辆、沿途的躲避等。但是,为了确保这些特征确实是决策的关键,研究人员将所有像素分为两类——第一类包含显然与驾驶决策有关的“显著”特征,第二类包含非显著特征,主要是背景中的特征。研究人员对这两类进行了数字化操纵,发现只有显著特征才是重要的。
研究人员在白皮书中写道:“改变显著物体会导致转向角度出现线性变化。这种改变几乎与平移整个图像时一样大。只改变背景像素对转向角度的影响要小得多。”
当然,工程师无法进入系统来修复“错误”,因为深度神经网络没有代码,称其存在错误是不恰当的说法。深度神经网络有的是特征。而现在,我们至少能在一定程度上将这些特征形象化。