前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >业界 | 马斯克参加反对AI武器宣言,全球2400名研究者共同签名

业界 | 马斯克参加反对AI武器宣言,全球2400名研究者共同签名

作者头像
大数据文摘
发布2018-07-31 15:09:57
3240
发布2018-07-31 15:09:57
举报
文章被收录于专栏:大数据文摘大数据文摘
大数据文摘出品

在2018年7月18日召开的斯德哥尔摩IJCAI上,马斯克和一个成立仅三年的组织“未来生命研究所”再一次被推上舆论的风口浪尖。

2000多名AI学者以及科学家共同在会上签署《致命性自主武器宣言》,誓言绝不将他们的技能用于开发自主杀人武器。

这次行动由未来生命研究所的联合创始人,MIT物理学终身教授迈克斯·泰格马克发起,包含Deepmind、欧洲人工智能协会等来自160家AI相关组织和企业,以及丹尼斯·哈萨比斯、斯图尔特·罗素、埃隆·马斯克等来自60个国家的2400位企业家、科学家、研究者共同签署。

源报道:

https://futureoflife.org/2018/07/18/ai-companies-researchers-engineers-scientists-entrepreneurs-and-others-sign-pledge-promising-not-to-develop-lethal-autonomous-weapons/

宣言核心诉求:绝不将人类生命权交给机器,避免军备竞赛

这份宣言旨在禁止参与和支持致命性自主武器的开发、制造、交易和使用。

致命性自主武器系统(Lethal autonomous weapon systems)简称“LAWS”。学界联合抵制LAWS已经不是首次。今年早些时候,3100 名的谷歌员工联署发信,要求退出 Maven 计划。

而在5月份,韩国KAIST大学因与军方合作开发LAWS研究项目,遭到全球50位顶级人工智能研究者抵制。抵制活动发起人、南威尔士大学教授Toby Walsh也在本次会上作了发言:“我们不能把谁生谁死的决定权交给机器。因为它不具备这样的道德。”

而本次宣言发起人泰格马克在发言中这样说道:“我很高兴看到人工智能的领军人物从对话转向行动,实施一项政治家们迄今未能实施的政策。

人工智能有巨大的帮助世界的潜力——如果我们不能容忍其滥用,并致力于防止其滥用。自主杀人的AI武器就像生化武器一样令人厌恶和不安,我们应该以对待生化武器的方式来处理自主武器”。

一向对AI抱持审慎态度的马斯克参与其中则是毫无意外的事情。在硅谷,他怒怼过扎克伯格、拉里·佩奇等人对人工智能过分的乐观自信。年初,在他出演的记录片《你相信这台电脑吗?》更是警告,稍有不慎,AI将成为人类“永生的独裁者”。

宣言在最后部分号召所有的参加者,应当呼吁政府和领导,建立严格的国际公约以及政策和法规,抵制自动武器。所有的技术企业和组织,以及领导人和政策制定者,乃至其他行业领袖,都应加入到这次宣言当中。下一次联合国关于致命性自主武器系统的大会将于8月召开,本次宣言是否能够推动国际社会更加严肃的关注,我们拭目以待。

宣言原文:

https://futureoflife.org/lethal-autonomous-weapons-pledge/

本书中文版由湛庐文化/浙江教育出版社出版

我们为何应当抵制AI武器?

在泰格马克教授的新书《生命3.0》中,他谈到自己对武器问题的关键看法:

自动化武器能在无人干涉的情况下选择和袭击目标。这些武器可能包括4轴飞行器,它们能够搜索和杀死满足某些预定标准的人。不过,这些武器中不包括导弹或遥控无人机,因为它们的目标决策都是由人类做出的。人工智能技术已经到达了一个临界点,过不了几年,就可能出现实际可行的系统部署,尽管这不一定合法。不用等到几十年后,自动化武器就会带来很大的风险:继火药和核武器之后,它被认为是第三次武器革命。

对自动化武器,有人支持,也有人反对。比如,有人提出,用机器来替代人类士兵可以降低伤亡人数,但也会降低发动战争的门槛。人类今天面临的一个重要问题是,是展开一场全球人工智能军备竞赛,还是努力阻止它发生?

只要任意一个主要军事力量推动人工智能武器开发,那全球军备竞赛几乎是不可避免的,而这场技术进步的终点是显而易见的,那就是:自动化武器会成为明天的AK突击步枪。

与核武器不同,它们不需要昂贵或稀有的原材料,因此,它们会变得无处不在,并且价格便宜,能够被所有主要军事力量大规模生产。那么,自动化武器早晚都会出现在黑市、恐怖分子、意欲控制人民的独裁者、想要种族清洗的军阀等人的手中。自动化武器是刺杀、颠覆政权、制伏人群或选择性地杀死某个种族的理想工具。

因此,我们相信,人工智能军备竞赛对人类无益。人工智能有许多方式可以在无须创造出新型杀人工具的情况下,使战场对人类(特别是平民)而言变得更加安全。

正如化学家和生物学家没兴趣开发生化武器一样,大多数人工智能研究者也没有兴趣开发人工智能武器,也不希望其他人用这种研究来玷污这个领域。因为这会激起公众对人工智能的反对,从而限制人工智能未来可能为社会带来的裨益。

实际上,化学家和生物学家广泛支持那些阻止生化武器研究的国际条约,而这些条约都非常成功;无独有偶,大多数物理学家也都支持那些禁止太空核武器和致盲激光武器研发的条约。

值得庆幸的是,泰格马克发起的“AI有益运动”正在以星火燎原之势,引发学界、企业界、政府乃至联合国的高度关注。

未来生命研究所

2015年,这家组织由迈克斯·泰格马克创办,成立一年后获得马斯克1千万美元捐赠,得到了包括伟大的物理学家霍金以及亚马逊、谷歌、Facebook、微软、IBM等企业的支持。这家组织致力于推动和促进人工智能等人类“关键”技术的安全、伦理及社会层面研究。

未来生命研究所官方网站:https://futureoflife.org/

目前,该机构已经募集资金超过1亿美元,汇聚了8000多位全世界顶级的人工智能专家,成功地让“人工智能安全性”研究迅速在全世界成为了一场轰轰烈烈的运动。

由未来生命研究所主办的阿西洛马大会的合影,也是AI有益运动的“群英谱”。你可以在里面找到拉里·佩奇、埃里克•施密特这些企业家,吴恩达、丹米斯•哈萨比斯这样的技术专家,以及丹尼尔·卡尼曼这样的来自心理学、经济学、社会学方面的顶级专家。DeepMind、谷歌、Facebook、苹果、IBM、微软和百度等公司的代表悉数到场。

关于AI如何有益人类这一话题,应当有公众更加积极和广泛的参与,并作出思考与选择,我们已经站在了历史一个新的十字路口上。

今日机器学习概念】

Have a Great Definition

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-07-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据文摘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档