4月9号,联合国再次召开《特定常规武器公约》大会。
这已经是第五次在瑞士日内瓦讨论这个致命自主武器系统的议题。也正巧是「阻止杀人机器人战役」组织(Campaign to Stop Killer Robots)成立的第五个年头。
本次会议主要关注如何限制自主致命性武器,也就是我们常说的杀人机器人。
自从去年11月14号首次讨论过杀人机器人之后,参会成员国同意进一步探讨具体的细节。
支持禁止杀伤性武器的群体非常担心,在有效法令出来之前,就会有不需要人类下达最终执行命令的杀人机器人大开杀戒,伤及无辜。
加大伯克利分校计算机系教授Stuart Russell是这个群体的代表,他特地在去年《特定常规武器公约大会》举办的前两天上传了一个视频,描绘了有杀人机器人存在的恐怖未来。
该视频上线后迅速获得了两百万点击,引发了民众广泛的担忧。以至于大众对联合国在这个问题上推进得如此之慢表示非常不满。
“联合国这次重新召开相关讨论,就是希望能落实人类对杀人机器人的控制,”2017年诺贝尔和平奖得主,同时也是组织杀人机器人战役的联合创始人Richard Moyes称,“现在大家都对安全问题非常重视。”
Moyes认为,国家层面更应该明确:人必须知道任何武器的使用场合和时间。
现在,越来越多的国家呼吁禁止杀人机器人,尤其是那种依赖于机器智能做决策,决定人类生死的机器人。
但是,俄罗斯、以色列及部分人口大国都已经拥有了最先进的自主武器,他们并没有表明打算限制机器智能在这方面的使用。
据主持会议的印度去武器化大使Amandeep Gill称,这次为期两周的会议。目前会议的进展确实不尽如人意。“这个杀人机器人的议题极度复杂,所以我们(参会国)都非常谨慎。”
不管如何,民众们非常希望今年多开的这两次会,能尽快促使落实杀人机器人的国际联合条款。
一周前,Geoffrey Hinton、南大计算机教授周志华以及全球50多名顶尖的AI学者联合抵制韩国科学技术院,将切断所有和韩国科学技术院在学术上的合作关系,以及拒绝接待任何来自该机构的访问学者。
这决绝的态度起源于韩国科学技术院在2月份发布的一份声明,该声明宣布与军防企业Hanhua Systems成立联合研究院。
联名抵制信中,50多名AI学者的态度非常坚决。
一旦顶级的学术机构也参与到自主武器的研发中,必然会加速第三次世界大战。武器杀伤力和规模都将会远远超出想象。 这个潘多拉盒子,绝对不能打开。
在这个敏感的节骨眼上,杀人机器人禁令的商议、制定刻不容缓。
你可能感兴趣
马斯克等116人联名上书,呼吁联合国禁止“杀人机器人”
3100名谷歌员工联名上书,抵制与五角大楼合作:不想做战争生意