将AI用于武器研发?德国承诺不使用机器人杀手

目前,自主武器已成为关于人工智能未来发展辩论的核心,一些国家已经开始逐渐远离使用中所涉及的伦理困境和政治争议。

在最近举行的联合国常规武器公约会议上,世界各国领导人考虑出台相关方案以禁止使用这些所谓的“机器人杀手”,严格意义上来这并不是准确的表述,这是由于,自主武器不限于Josh机器人类型。在目前召开的慕尼黑安全会议常务会议上,德国明确表示,他们对研发自主武器系统并不感兴趣。

“我们的立场很明确,我们无意购买自动化系统”德国网络与信息空间安全新任指挥官Lieutenant General Ludwig Leinhos这样说到。然而,他明确表示,德国军队并不是仅仅选择不参与争端,当其面对外国远程武器的潜在攻击时,同样随时准备着保卫国家以免受威胁。

继澳大利亚和加拿大之后,德国成为最近正式公开谴责开发或使用自主武器的国家。同样,2017年初,英国已经宣布禁止使用自主武器。

作为“阻止发展杀手机器人”倡议的协调员,Mary Wareham在MSC上告诉专家组已有22个国家支持此项禁令。同时,全世界的激进分子持续反对此种武器的研发,而形成对比的是,包括美国在内的一些国家则将持续对此种武器进行研发。

许多世界著名的人工智能专家都对此种武器的研发持反对意见,他们在此前的致联合国公开信中明确呼吁禁止自主武器的研发。资深人工智能研究员Stuart Russell也参与其中。此前,他告诉Futurism的记者,将武器人工智能化给社会带来的影响弊大于利。包括“哈佛人工智能计划”、国际特赦组织以及反杀手机器人运动在内的各类其他团体,都表达了同样的担忧。

当然,对于人工智能未来发展前景的讨论,自主武器只占据其中很小的一部分。对于人工智能的发展前景,大部分人还是赞同其为科技进步的一种形式,且不应该对其进行阻碍。然而,将人工智能应用于武器研发的事实,却对世界安全状况发起了最高级别的警报。 相关新闻Facebook谷歌AI研究者为什么就在CEO旁边工作? 难呈爆炸性增长?这六个障碍阻碍AI创新 笑喷!网友花式调教智能音箱 示范AI错误使用方式 被Intel看好 Horizon致力研发国产人工智能芯片 中国机器人工业崛起 对人类来说意味着什么? 责编:陶宗瑶(实习生)

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180222C06SO800?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券