首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

华盛顿大学教授Oren Etzioni:人工智能监管指南

华盛顿大学教授Oren Etzioni:人工智能监管指南

译者:学术plus评论员 张涛

编者按:

随着人工智在日常生活中愈发普及,AI监管的问题也逐渐浮出水面,日渐棘手。本文翻译自文章《Point: Should AI Technology Be Regulated?: Yes, and Here's How》,该文提出AI监管势在必行,阐释了监管的重点和难点,介绍了规范人工智能的5条指南,旨在为相关部门的决策提出建议。该文指出,人工智能监管中最棘手之处在于:它不仅是一个技术问题,而且是一个社会学问题,并呼吁伦理学家等多方学者参与,共同来解决AI监管难题。现由学术plus评论员张涛编译,仅供参考。文章版权归原作者所有,观点不代表本公号立场。感谢学术plus授权发布。

发布日期:2018年12月

译者:学术plus评论员 张涛

来源:https://cacm.acm.org/magazines

AI技术应该被监管吗 ?如何监管?

政府监管对于预防带来的伤害是非常必要的。但监管是一种非常缓慢的过程,且很容易受到政治的干预。而且,当监管应用于人工智能等快速发展的领域时,错位的监管可能会扼杀创新,破坏人工智能带给我们的巨大的潜在好处,比如提高无人驾驶汽车的安全性、提高生产率等等。埃隆·马斯克(Elon Musk)曾敦促美国政府尽早对人工智能进行监管,但我们也不希望监管阻碍技术的创新和发展。

为此,研究人员提出了一个折中的方法:即避免过度监管人工智能的研究,重点监管和关注人工智能在交通运输、医学、政治和娱乐等领域的应用。这种方法不仅平衡了人工智能研究带来的好处和人工智能系统可能的潜在危害,而且更具可操作性。

监管AI到底有多棘手?

人工智能席卷全球的趋势势不可挡。如何监管却成了棘手的问题。

监管AI存在的第一个问题就是如何定义AI?

曾经的AI只是一个国际象棋游戏机,但是现在,AI已融入我们的社交媒体、汽车、医疗设备等之中。技术进步的速度太快,并且迅速地融入我们的生活中,导致机器和智能机器之间的界限开始变得模糊不清。

比如“伤害(harm)”的概念就很难被纳入算法中。自动驾驶汽车可以大幅减少高速公路事故,但同时人工智能也可能会造成一些事故,而且人工智能造成的事故比普通的人为事故更容易使人受到伤害。因为AI没有常识,所以可能会删除尚未备份的博士学位论文。墨菲的人工智能定律是,当你给AI一个目标时,无论你是否喜欢它实现其目标的含义,AI都会做到这一点。人工智能在定义诸如“伤害”等模糊的概念方面几乎没有常识。

监管虽然很难,但是必须监管。那应该采取哪些规则来解决过多、而且不充分的监管问题呢?本文建议从以下5个方面着手:

规范AI应用的5个指南

1、不要将AI武器化

首先是制定针对人工智能武器和网络武器的法规。马斯克在给联合国的一封信中说:“自主武器(autonomous weapons)开发出来后,将会使武装冲突的规模比以往任何时候都大,而且时间比人们想象地更快。自主武器可能会被用作恐怖武器,也可能被暴君和恐怖分子用来对抗无辜的平民。所以我们不应该创建应用AI技术的杀戮机器。因此,第一个监管原则是:“不要将AI武器化。”

2、法律约束

第二个指南是人工智能应受到适用于人类操作员的全部法律约束。如果说“the AI did it”即必须意味着作为AI的所有者、操作者或构建者的人们做到了。作为AI的所有者、操作者或构建者,即负责任的一方,必须确保AI不会伤害任何人;一旦对别人造成了伤害,就应该承担责任。但是如果造成了伤害,应该可以区别出来是AI的拥有者,或者是生产商的责任,但是目前并没有完善的法律体系来应对这种情况。

3、明确告知“自己是AI”

AI应明确告知他人,自己是AI。这意味着Twitter聊天机器人、扑克机器人和其他人必须将自己标识为机器,而不是人。因为,已经有政治机器人对新闻文章发表评论,并产生不和谐的宣传声音。

4、未经批准不得保留或披露机密信息

第四条指南是,未经消息来源事先明确批准,AI不得保留或披露机密信息。比如从Amazon Echo,Google Home和智能电视中收集的数据,或是看似无害的扫地机器人也可能创建精确的室内地图。未来隐私问题只会越来越多越来越尖锐,需要更严格的隐私政策来保护人们及其信息。

5、消除偏见

AI应用程序规则的第五个指南是AI不得增加或放大系统中已存在的任何偏见。现在AI使用过去的数据来预测未来。假如,数据显示白人违约率为60%,而有色人种违约率只有20%,那么种族信息就对算法很重要。

与AI相关的另一个相关问题是,所有形式的AI(包括机器人,自治系统,嵌入式算法)必须具有问责性、可解释性和透明性,以便人们能够理解机器所做出的决策。美国的各州可以使用预测算法来计算囚犯未来构成的风险,并在法庭审判中用做量刑建议。人工智能和算法会用于决定谁可以访问公共服务以及谁接受执法部门的额外审查。所有这些人工智能和算法的应用都提出了关于人权、系统性偏见和长期存在的不公平的棘手问题。

这也引出了人工智能监管中最棘手的问题之一:即它不仅是一个技术问题,而且是一个社会学问题,需要伦理学家和其他各方参与使用他们的专业知识来解决监管难题。

如何进行监管?

和其他法律法规一样,单一的监管机构是不可行的,而是应该嵌入现有的监管机制之中。

比如,假设我有一辆无人驾驶汽车发生了事故。如果这是我的车,我就会被认为应该负责。但可能是汽车技术工艺存在缺陷才导致的事故,在这种情况下,制造商应该分担责任。因此,无人驾驶汽车应该遵守与我们人类相同的法律,受联邦机动车辆安全标准(Federal Motor Vehicle Safety Standards)和机动车驾驶法律的监督。

有些人可能会问:电车难题(trolleyproblem)怎么处理呢?如何对汽车进行编码来确定如何在电车难题中做出抉择呢?这并不是一个工程问题,而是一个哲学思想问题。实际上,无人驾驶汽车将减少事故中受伤或死亡的人数;由于算法做出选择而导致某人受伤的极端情况只占事故的一小部分。以谷歌的自动驾驶Waymo为例,它在美国已经行驶超过200万英里,200万英里只有一次事故。其安全行驶率比任何驾驶员都低,大约比60-69岁的人低10倍,比新司机低40倍。

人工智能越来越普及,但是现有的监管机构尚未开始监管。但应该尽早识别这些应用程序,并确定监管机构来实现监管目标。我们必须认识到法律法规的目的是保护人类和社会免受伤害。可以通过人工智能的合作平台和研究组织作为其对对人类和社会影响的讨论和参与的开放平台。苹果和艾伦人工智能研究所等机构正在合作制定人工智能技术的最佳实践;纽约大学的AI Now研究所和哈佛大学的Berkman-Klein中心也正致力于制定人工智能的道德准则。

尽管监管AI难度很大,但在享受技术便利的同时,也要肩负起应有的责任。

(全文完)

声明:版权归原作者所有。文章观点不代表本公号立场。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181208B0QC4K00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券