首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

给机器人定的三条天规,能保护好人类吗?

阿西莫夫的《我,机器人》,在1950年末由格诺姆出版社出版。

阿西莫夫这本书把“机器人三大法则”放在了最突出、最醒目的地位,很显然,作者也担心未来的机器人会进化到威胁人类,就提前给机器人定好三条天规,以约束机器人。

而三条天规之间的互相约束,为后世的人们引以为鉴。

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

三定律在科幻小说中大放光彩,在一些其他作者的科幻小说中的机器人也遵守这三条定律。

同时,三定律也具有一定的现实意义,在三定律基础上建立新兴学科“机械伦理学”旨在研究人类和机械之间的关系。

虽然截至2006年,三定律在现实机器人工业中没有应用,但很多人工智能和机器人领域的技术专家也认同这个准则,随着技术的发展,三定律可能成为未来机器人的安全准则。

阿西莫夫在后来的小说中又补充了“机器人零定律”:

第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。

阿西莫夫之后,人们不断提出对机器人三原则的补充、修正。到今天已形成如下原则:

元原则:机器人不得实施行为,除非该行为符合机器人原则。

第零原则:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。

第一原则:除非违反高阶原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。

第二原则:机器人必须服从人类的命令,除非该命令与高阶原则抵触。

机器人必须服从上级机器人的命令,除非该命令与高阶原则抵触。

第三原则:如不与高阶原则抵触,机器人必须保护上级机器人和自己之存在。

第四原则:除非违反高阶原则,机器人必须执行内置程序赋予的职能。

繁殖原则:机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。

可以想象未来给机器人定的原则会越来越多,人们总会担心自己会不会制出一个不可控制的怪物,人类与未来的博弈永无止境。请关注: 远方的狮

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180224A1AIUG00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券