专栏首页机器人网如何赋予智能机器人道德能力?

如何赋予智能机器人道德能力?

打造具备道德自主能力人工智能装置的人该负什么样的责任?我们该如何透过有责任感的方式,为机器人添加道德能力?研究人员将为这些链接机器人与人工智能工程、巨量数据分析以及道德哲学的迷人题目找出答案;它们正为工程师们带来挑战,也不应该被忽视。来自美国塔夫斯大学(Tufts University)、布朗大学(Brown University)、以色列理工学院(Rensselaer Polytechnic Institute)与世界其他学术机构的研究人员们,正与美国海军共同探索以上相关问题,目标是开发出能成功植入机器人的道德算法。

为了解更多针对机器人应用的嵌入式道德算法开发现况,《电子工程专辑》美国版编辑专访了塔夫斯大学计算机科学教授Matthias Scheutz,他也是该校的人类-机器人互动实验室(Human-Robot Interaction Laboratory,HRI Lab)的负责人。

设计具备道德能力机器人所遭遇的挑战有哪些?Scheutz表示:"相关挑战有很多,例如理解道德判断情境,可解决道德冲突的恰当道德推理能力,以及判断适合的行动路线等,还要将所有的算法以一种让它们能坚定地实时运作之方式,布建在机器人架构中。"

Scheutz也表示,它们目前正在研究推理算法的不同设计选项,例如扩增道义逻辑(augmented deontic logic,形成义务与许可概念的逻辑),以及侦测出道德判断情境的方式、主要是根据语言。

机器人Nao乖乖地安静坐在一边,等待塔夫斯大学教授Matthias Scheutz开始上机器人程序编写课程(来源:Alonso Nichols,Tufts University)

机器人不当决定导致原本可避免的伤害发生时,谁该负起责任?

在一篇题为《让自主代理体系架构更具功能性的需求(The Need for More Competency in Autonomous Agents Architectures)》之论文中,Scheutz以医疗与战场做为自主式机器人的两个应用案例,讨论机器人设计师与工程师所面临的部分挑战;包括机器人将做出什么决定?以及不当决定导致原本可避免的伤害发生时,谁该负起责任?

Scheutz表示,身为机器人设计者:"我们负责开发所有支持道德推理之算法的控制架构,但我们不会对机器人将被赋予的道德原则做出任何承诺,那应该是机器人布署者的任务──他们负责定义道德准则、规范等等。"

因此Scheutz认为,法律专家应该要提早定义出对机器人行为应负的责任,这是一个关键问题,特别是因为具备学习能力的机器人,也会在执行任务的过程中吸收新的知识。

塔夫斯大学教授Matthias Scheutz与他在HRI实验室的机器人伙伴Cindy (来源:Kelvin Ma,Tufts University)

如何赋予机器人道德能力?

要赋予机器人道德能力,就是让机器人在一个道德判断情境中,模仿人类的决策过程;而首先,机器人就是能意识到一个道德判断情境,接着依循所布建的推理策略──包括道德原则、基准与价值等。这呼应了美国达特茅斯学院(Dartmouth College)教授James H. Moor提出的第三种道德主体(ethical agent)"──也就是明确(explicit)的道德主体。

根据Moor的说法,明确的道德主体能在多样化的情境之下判别并处理道德信息,并做出应该要做的敏感判断;特别是它们能在道德两难的情境下,在不同道德原则相互冲突时,做出"合理的决定"。

Scheutz指出,现今的机器人与人工智能科技进展,已经能制作出具备自我决策能力的自主机器人,不过大多数这类机器人的功能仍然很简单,其自主能力也有限;因此它们有可能因为缺乏从道德角度来考虑的决策算法,而成为具伤害性的机器。

"如果我们不赋予机器人侦测并适当处理道德判断情境的能力、而且是透过人类可接受的方式,我们可能会增加人类受到不必要伤害与苦难的风险;"Scheutz表示:"自主性机器人可能会做出我们认为在道德上有错误的决定──例如被授权不提供病患止痛药。"

在论文中,Scheutz表示机器人开发者能采取一些行动,减轻布署在人类社会中的机器人面临道德判断情境可能造成的问题:"第一,机器人设计者可以透过机器人的设计与编程,降低遭遇道德判断情境中的潜在性,例如当机器人不会回报社交关系时,就不利于社交连结(social bonding),这将会减少人们与机器人建立单向情感连结的情况。"

相较于有些机器人的行为会表现情感,或是拟人化的设计,可能会暗示人们它有能力特定类型的关系,但实际上并不会。身为人类,对机器人可能在道德判断情境或是道德两难情境下可能做出的抉择做出批判,可能会是挑战。

考虑到我们身为人类,在评估我们自己的道德社交行为时,会一直表现出许多前后不一致的行为,无疑人类需要为打造具备道德自主性的人工智能负责。

Scheutz表示,实际上人类面对道德判断情境时也会有不同的看法,但这不一定会成为替机器人布署道德推理功能的限制因素:"未受过正规训练的人类通常不擅于正确的逻辑推理,而且有可能会犯错──例如所得结论并未根据已知信息的逻辑──特别是在复杂的道德情境下。至于机器人,我们能确保它永远或只会依循逻辑推理,不会执行未受允许的动作。"

Scheutz期望,未来每一个布署在人类社会中的自主性机器人,包括辅助机器人、娱乐机器人、军事机器人等等,都是"懂道德的机器人"

本文分享自微信公众号 - 机器人网(robot_globalsources)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2014-07-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 如何赋予智能机器人道德能力?

    打造具备道德自主能力人工智能装置的人该负什么样的责任?我们该如何透过有责任感的方式,为机器人添加道德能力?研究人员将为这些链接机器人与人工智能工程、巨量数据分析...

    机器人网
  • 折纸也能做成机器人?科学家打造三角形模块化机器人

    折纸艺术能为机器人领域带来许多创造灵感,比如制造出能够从我们的胃里找到出路的折叠机器。近日,又有科学家借鉴了这种古老的艺术创造了一种小型三角形机器人,它们可以组...

    机器人网
  • 从智能到自主:机器人需要拥有归纳推理能力

    ---- ? 《第九区》导演Neil Blomkamp的新电影《超能查派》(CHAPPiE)将会在3月6日北美上映,讲述一个有缺陷的机器人CHAPPiE在人类...

    机器人网
  • 如何赋予智能机器人道德能力?

    打造具备道德自主能力人工智能装置的人该负什么样的责任?我们该如何透过有责任感的方式,为机器人添加道德能力?研究人员将为这些链接机器人与人工智能工程、巨量数据分析...

    机器人网
  • 定了!美日巨型机器人大战就在今天

    经历多次爽约之后,日本水道桥重工Kuratas与美国MegaBots两大巨型机器人大战的日子终于敲定了,就在明天,这一决战将在Twitch 上进行放映。 事情...

    机器人网
  • 新型颅底手术机器人非常精确,可以大大减轻外科医生的工作量

    在颅底钻孔是一个非常精细的活,往往需要几个小时的时间,并且需要外科医生进行最大限度的干预。荷兰埃因霍温理工大学的研究人员开发了一款新型的手术机器人,可以完成这项...

    机器人网
  • 从智能到自主:机器人需要拥有归纳推理能力

    ---- ? 《第九区》导演Neil Blomkamp的新电影《超能查派》(CHAPPiE)将会在3月6日北美上映,讲述一个有缺陷的机器人CHAPPiE在人类...

    机器人网
  • 前沿 | 最新Science Robotics聚焦机器人社交与医疗自动化分级

    选自Science Robotics 作者:Maja J. Matarić等 机器之心编译 参与:微胖 ? 图:社交辅助机器人的例子 机器人发展的驱动力是对自...

    机器之心
  • 折纸也能做成机器人?科学家打造三角形模块化机器人

    折纸艺术能为机器人领域带来许多创造灵感,比如制造出能够从我们的胃里找到出路的折叠机器。近日,又有科学家借鉴了这种古老的艺术创造了一种小型三角形机器人,它们可以组...

    机器人网
  • 机器人工程师薪资有多高?看完想默默辞职了…

    去年,东莞拥有智能装备制造企业400多家,实施“机器换人”申报项目831个。随着“机器换人”进程不断加速,“智造东莞”促使人才结构日渐趋向“智造人才”升级。 近...

    智能算法

扫码关注云+社区

领取腾讯云代金券