人工智能和人类的相处,要遵循什么,这是一个值得探讨的问题。在探讨道德观之前,我们先谈谈著名的阿西莫夫三定律。
对待人工智能四种态度:
数字乌托邦主义者,谷歌拉里佩奇,技术自由应该自由发展。
技术怀疑论者,《人工不智能:计算机如何误解世界》,技术发展还远没到担忧的程度。
良性AI技术支持者,大多数科学家的态度,认为AI应该循序渐进。
卢德主义者,卢德因为失业砸了纺织机,他们认为人工智能该禁止。
对于人工智能,大多数科学家早已有过道德上的思考,这种思考最早追溯到知名小说《弗兰肯斯坦》。弗兰肯斯坦是个科学家,他制造了一个怪物,这个怪物通过和人类的接触逐渐自我成长,但是最终不被融于人类社会,他到处破坏和毁坏。后来怪物去找弗兰肯斯坦,要求造一个女性怪物,认为那样才能解决问题。结果在制造女性怪物的时候弗兰肯斯坦开始考虑科技的不确定性。这个女性怪物会如何?她会不会制造更多的灾难?于是弗兰肯斯坦毁灭了女性怪物。……普罗米修斯偷了上帝的火种给人类,而自己却被束缚在石头上接受惩罚。科学家很多信奉科技本身没有错,错的是人类。而如今人工智能没有发展到很智能的程度,却已经要考虑现实的问题。
比如无人驾驶,人类的决策是柔性的,如果你向左向右都会撞到人,你怎么选?这就像老妈和媳妇掉水里你先救谁的难题,对于人工智能,人和人是一样的。然而对于人类,我们是有相机决策能力和柔性思维。如果左右两边是一老一少,人工智能怎么选?如何一边是四个老人,一边是一个小孩,你又怎么选?
如果人工智能可以做出选择,那么也许又是新灾难的开始。因为有了决策能力的人工智能很可能跨越临界点。在临界点以下,他的进步比人类慢,而在临界点以上,人工智能可以自我对智力增值。就像弗兰肯斯坦,偷听别人讲话就学会了语言。这个时候人类思维对于人工智能那是低纬度的智力,如果人工智能出个错,结果是灾难性的。人工智能专家库茨韦尔就提出了加速回报定律。
人工智能真得会成为毁灭人类主人的小黄人,除非我们先给他设定更多的规则。有技术“逆向增强学习”就是对增强学习的一种补充,因为人工智能现阶段就是机器学习,那么就将人类的道德习惯要其通过学习的方式灌输进去。这个技术必定还没有成熟,也许会有新的问题,不过算一种不错的尝试。
人工智能需要道德,这是对未来的一种基本谨慎态度。
领取 专属20元代金券
Get大咖技术交流圈