首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

危险程度堪比核武?“杀人机器”研发或引发灾难

科幻电影《终结者》中的天网机器人。

美国石英财经网站5月11日发表了贾斯廷·罗尔利希的题为《“第3次战争革命”是能够自己决定杀人的武器》的文章,现将原文编译如下:

自主致命性武器——批评者称之为“杀人机器人”——的出现让许多分析人士感到惊恐。在没有人类近距离控制的情况下,装备了人工智能的某些此类武器能以士兵无法企及的速度和效率选定并消灭目标。

包括美国在内的多个国家正在研发自主致命性武器,相关项目包括装备人工智能的无人坦克、无人战斗机等。

各国就此自行实施了一些准则,但专家说这些还不够。美国军方政策规定,无人武器装备作出开火决定时必须有“适当程度的”人类判断,但并未对此作出明确定义,而且允许有例外。美国也是反对在该领域进行国际监管的少数国家之一。

不过,担心爆发军备竞赛的荷兰非政府组织“和平”反战组织最新发表的报告称,要想防止最终的灾难,除了全面禁止之外别无选择。

未来士兵想象图。

这种担忧不无道理。人工智能专家认为这种武器将引发“第3次战争革命”。和前两次战争革命——黑色火药和核弹——一样,此类武器系统能迅速证明其价值,让拥有它们的一方获得几乎不可超越的技术优势。

如果不加以禁止,人工智能武器可能在全世界的军队中投入使用。就像社交媒体一样,在相关公司强烈抵制——而同时技术还在飞速发展——的情况下,试图到后来再回溯性地实施监管将被证明困难重重。

正如“和平”组织所声称的,“将生死决定权交给机器或算法是极不道德的”。

问题是,我们会及时行动起来吗?对于人工智能武器,快速采取行动极为重要。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190514A0AG5G00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券