首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能与机械公敌

谈到人工智能,普通人对人工智能专业的术语可能了解并不深,普通人多是从电影里对人工智能开始有所了解。如今现实生活中的人工智能的发展已经如火如荼,而那些曾经的关于人工智能类型的电影现在有没有走进人类的生活。或者有多少人工智能电影的设定在走进人类生活的路上。

首先说一部家喻户晓的人工智能的电影《机械公敌》,这部电影的英文名字叫做《I,Robot》,意思是:我,机器人。讲的就是机器人开始有了像人类一样的思考能力,并且开始融入人类的生活。里面的主演就是大名鼎鼎的威尔史密斯。一个著名的黑人演员,还演过一个著名的励志电影《当幸福来敲门》,这个电影看哭过很多人,很多想要从社会底层拼搏逆袭的人。

机械公敌中的机器人

《机械公敌》这部电影上映实在2004年,电影里剧情设定的时间是2035年,距离现在还有6年,因为还有几天的就到2019年了。很显然,电影里具有超级人工智能科技的机器人是非常先进的,再过短短6年的时间或者10年的时间人类也未必能达到那个水平。目前仅仅是无人驾驶汽车还在试验阶段,未能大规模应用走进千家万户的生活中。而要开发出像《机械公敌》里具有人类意识的机器人还非常遥远,即使是波士顿动力研究院开发的机器狗也仅仅只能做到独自行走,简单的避开障碍物,被人踢倒了再爬起来,而灵活性远远不及真实的狗,而且智力水平也赶不上真实的狗。所以电影里像人一样的机器人,这种技术正在开发,但是真正达到还需要很长时间。

威尔史密斯

电影里非常著名的或者说非常引人思考的是机器人三大原则。就相当于人类的自己的《宪法》。其中第一条是机器人不能伤害人类,还有看到人类受到伤害不能坐视不管。首先这个第一条就很难实现,比如这个不能伤害人类是指什么伤害,是不是仅仅指物理伤害包不包括心理伤害。要是机器人的行为没有达到人的期望让人类伤心了,那么机器人算不算伤害人类?

无人驾驶

第二条是机器人必须听人类的话,服从人类的命令,除非这个命令和第一条相矛盾。这个第二条也是有很多漏洞的,比如如果有两个人或者多个人给这个机器人发号命令,这个机器人应该怎么走。比如一个人命令这个机器人向东走,另一个人命令这个人向西走,第三个人命令这个机器人向南走,再来一个人命令这个机器人向北走。这个机器人就会产生疑惑,究竟听谁的,如果想不出该听谁的会不会死机。还有如果人类命令这个机器人去做伤害人类的事情,但是这个机器人不知道这样做会伤害人类,那么这个机器人会不会做,做了之后发现是在伤害人类会怎么样。比如人类命令机器人去生产炸弹。开始机器人不知道自己生产是用于伤害人类,它认为人类让它生产炸弹是为了开山修路。后来人类用这炸弹去伤害人类。那么这个机器人知道后会怎样,它发现自己做了一件违背原则的事,它会不会切腹自尽,会不会死机。

机器人

第三条是机器人必须保护自己,除非保护自己违背了前两条原则。这个的漏洞是当机器人保护自己时造成了对人类的伤害,但是它自己不知道造成了这种伤害。那么这时候机器人该怎么想,它会不会觉得既然已经坏了规矩那么不如将错就错一错到底,而其他机器人会不会模仿这种行为。

电影中机械公敌只是人类的一些设想,人类在努力接近一个机器服务于人类又不伤害人类的理想社会。但是这种人类设想的完美社会距离实现还非常遥远,不仅是技术上的遥远还有道德伦理法律方面的遥远。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181220A1J60J00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券