首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能发展是不是应该有道德观?

人工智能和人类的相处,要遵循什么,这是一个值得探讨的问题。在探讨道德观之前,我们先谈谈著名的阿西莫夫三定律。

对待人工智能四种态度:

数字乌托邦主义者,谷歌拉里佩奇,技术自由应该自由发展。

技术怀疑论者,《人工不智能:计算机如何误解世界》,技术发展还远没到担忧的程度。

良性AI技术支持者,大多数科学家的态度,认为AI应该循序渐进。

卢德主义者,卢德因为失业砸了纺织机,他们认为人工智能该禁止。

对于人工智能,大多数科学家早已有过道德上的思考,这种思考最早追溯到知名小说《弗兰肯斯坦》。弗兰肯斯坦是个科学家,他制造了一个怪物,这个怪物通过和人类的接触逐渐自我成长,但是最终不被融于人类社会,他到处破坏和毁坏。后来怪物去找弗兰肯斯坦,要求造一个女性怪物,认为那样才能解决问题。结果在制造女性怪物的时候弗兰肯斯坦开始考虑科技的不确定性。这个女性怪物会如何?她会不会制造更多的灾难?于是弗兰肯斯坦毁灭了女性怪物。……普罗米修斯偷了上帝的火种给人类,而自己却被束缚在石头上接受惩罚。科学家很多信奉科技本身没有错,错的是人类。而如今人工智能没有发展到很智能的程度,却已经要考虑现实的问题。

比如无人驾驶,人类的决策是柔性的,如果你向左向右都会撞到人,你怎么选?这就像老妈和媳妇掉水里你先救谁的难题,对于人工智能,人和人是一样的。然而对于人类,我们是有相机决策能力和柔性思维。如果左右两边是一老一少,人工智能怎么选?如何一边是四个老人,一边是一个小孩,你又怎么选?

如果人工智能可以做出选择,那么也许又是新灾难的开始。因为有了决策能力的人工智能很可能跨越临界点。在临界点以下,他的进步比人类慢,而在临界点以上,人工智能可以自我对智力增值。就像弗兰肯斯坦,偷听别人讲话就学会了语言。这个时候人类思维对于人工智能那是低纬度的智力,如果人工智能出个错,结果是灾难性的。人工智能专家库茨韦尔就提出了加速回报定律。

人工智能真得会成为毁灭人类主人的小黄人,除非我们先给他设定更多的规则。有技术“逆向增强学习”就是对增强学习的一种补充,因为人工智能现阶段就是机器学习,那么就将人类的道德习惯要其通过学习的方式灌输进去。这个技术必定还没有成熟,也许会有新的问题,不过算一种不错的尝试。

人工智能需要道德,这是对未来的一种基本谨慎态度。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190628A0NEZT00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券