首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

2000多位AI专家联手抵制,人类与AI该如何共存?

近日,AI与人类的命运,再一次因为自主武器而被推上了舆论风口。从产能“地狱”归来的马斯克,刚刚领衔2000多名AI专家签署了一份特殊协议。这份协议核心目的有且只有一个:承诺永不发展致命的AI武器系统。在瑞典斯德哥尔摩举行的IJCAL2018上,由MIT著名物理学家迈克斯·泰格马克发起,其任职主席的生命未来研究所起草。

迈克斯·泰格马克泰格马克说:“我很高兴看到人工智能的领军人物从对话转向行动,实施一项政治家们迄今未能实施的政策。人工智能有巨大的帮助世界的潜力——如果我们不能容忍其滥用,并致力于防止其滥用。自主杀人的AI武器就像生化武器一样令人厌恶和不安,我们应该以对待生化武器的方式来处理自主武器。

宣言称:人类个体生死的决定权,决不能交给机器。这一方面是出于道德层面的考虑,“掌控他人生死”这件让人产生负罪感的事,绝不能由没有感情的机器做出。而且致命的AI武器,不受人类干涉、自主选择攻击目标,可归责性与难度都前所未有,它们将成为暴力活动中的强大工具,尤其是与监控、数据系统相结合时。宣言在最后部分号召所有的参加者,应当呼吁政府和领导,建立严格的国际公约以及政策和法规,抵制自动武器。

于是从AI致命武器出现开始,舆论反对的声音就未曾停歇。在科学界,史蒂芬·霍金、马斯克等知名人士早在2015年就联合116名全球人工智能和机器人领域的专家发表联名公开信,呼吁联合国采取行动禁止“自主杀人机器”,称其为“恐怖武器”。“警示AI致命武器潜在风险,以及正在发生的军备竞赛,呼吁颁布相关禁令。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180917A05Y1000?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券