首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >不造AI杀人武器当然好,但牛津学者觉得马斯克们忽略了重点

不造AI杀人武器当然好,但牛津学者觉得马斯克们忽略了重点

作者头像
量子位
发布2018-08-08 11:55:13
1630
发布2018-08-08 11:55:13
举报
文章被收录于专栏:量子位量子位
圆栗子 发自 凹非寺 量子位 出品 | 公众号 QbitAI

上个星期,马斯克 (Elon Musk) 刚刚带领一众AI专家,签订了一份承诺书。

内容是,永不开发自主杀人武器 (Lethal Autonomous Weapon Systems)。

理由有二。一,不该把生杀大权交给机器。二,致命AI武器的存在,会让国家和个人承受危险的动荡。

意图自然是好的,但牛津大学的学者Mariarosaria Taddeo (简称玛利亚) 说,他们忽略了一个重点

而且,把万众目光集中在“AI杀手”上,人们就更难注意到那个重点了。

表面“静止”

智能机器人统治世界,支配人类,这样的极端场景,的确非常吸引眼球。

但那并不是AI技术唯一的隐患。

美军曾经把AI分成两种:一是移动的 (AI in Motion) ,二是静止的 (AI at Rest) 。

前者表示依托于实体机器人的AI,后者表示仅仅存在于软件系统的AI。

美国海军有自动驾驶的军舰,以色列有自主识别、打自主击目标的无人机,这些军用设备里的AI,是移动型。

但战争并非只有硬碰硬,比如,网络世界 (Cyber Space) 就从不和平。

玛利亚觉得,后者才更需要重视,“静止”也不代表不危险

暗潮汹涌

网络世界里,大大小小的国际争端,可能每天都在发生。

今年3月,美国谴责了俄罗斯,说对方几个月来,一直攻击美国关键的基础设施

这样的话,事情就不像WannaCry抢比特币那样简单。

如果,有人能利用AI,造成全国范围的停电,或者供暖系统瘫痪,就可能导致非常严重的后果。

停电不是小事

虽然,还没有发现AI直接造成物理伤害的事件,但不代表以后也不会有。毕竟,AI正在飞速普及。

玛利亚说,社会的运转越依赖AI,系统之间的冲突越可能带来物理伤害。

AI与AI之间,有了自主打击、自主防御行为,就算没有实体机器人,局面还是可能失控。

一线之隔

现在,许多国家都在建立自己的AI网络防线。

玛利亚说,“网络军备竞赛 (Cyber Arms Race) ”可能就要开始了。

可是,防御与攻击,仅一线之隔

现在,国际上依然没有法规,能够规范网络防御 (Cyberdefence) 行为。

早在2004年,联合国就成立了信息安全政府专家组 (Group of Governmental Experts on Information Security) ,目的便是达成共识,用统一的法条来规范各国在网络空间里的行为。

然而,会开了很多次,共识到今天都没有达成。

今年4月,玛利亚的一篇文章在Nature上发表。她写道,网络防御要三步走——

第一步,划定法律界限。

第二步,在友好邦国之间,测试防御策略。

第三步,建立监管机制,强化法规执行。

她给每一步,都描绘了一些合理的设想。

不过,还不知道这个世界,哪天能走出第一步。

Nature文章传送门: https://www.nature.com/magazine-assets/d41586-018-04602-6/d41586-018-04602-6.pdf

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-07-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 表面“静止”
  • 暗潮汹涌
  • 一线之隔
相关产品与服务
腾讯云小微
腾讯云小微,是一套腾讯云的智能服务系统,也是一个智能服务开放平台,接入小微的硬件可以快速具备听觉和视觉感知能力,帮助智能硬件厂商实现语音人机互动和音视频服务能力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档