第一法则:机器人不得伤害人类,或坐视人类受到伤害;
第二法则:除非违背第一法则,机器人必须服从人类的命令;
第三法则:在不违背第一及第二法则下,机器人必须保护自己。
看完这个视频后,我希望机器人能够不要再去相信一个曾经没能成功接住它的人类。。。
在另一个实例中,机器人拒绝了走向一堵墙的命令。当获知墙并不坚硬后,机器人便愿意执行命令了。
最后一个例子展示了在一个类似的情况下,机器人拒绝了“停用部分功能”的命令,因为这个机器人和发命令的人类之间不存在合适的社会关系。
机器人学的第二和第三个法则在这里被修改了,因为当人类的命令可能导致机器人受伤时,机器人就会忽略这些命令。
本文分享自 交互设计前端开发与后端程序设计 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!