首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

黄颂:AI将如何重新定义法律?

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存

以上是科幻作家阿西莫夫在科幻小说《我,机器人》中提出的机器人三定律。

而在当今社会中,没有了三定律的约束,人类靠什么阻止和科幻世界趋同的科技脚步呢?

今天为我们解读的讲者是云脑科技中国区数据算法负责人黄颂,作为国内顶尖人工智能从业者,他对人工智能的发展提出了自己的看法。

(文末有黄颂在一刻talks【未来大会】完整版演讲视频)

(讲者黄颂提供)

一、犯错误的不是程序,而是价值观的缺陷

曾经,他以为,作为一名算法工程师,只需要安分地写好代码就可以了。直到2016年的中秋节,互联网发生了一件轰动一时的事情触动了他。有一位懵懂无知的程序员,在中秋节抢月饼活动中修改了脚本,抢到了十六个月饼,当天就被辞退。

这让他反思:“大数据和人工智能技术经过野蛮生长,已经渗透到每一个人生活的方方面面,但同时带来了各式各样的伦理道德问题。”

算法的背后是人,算法的价值观就是人的价值观,算法的缺陷是价值观上的缺陷。

——快手CEO宿华

二、隐私危机

人工智能的繁荣复兴离不开两大技术,深度学习和大数据。

深度学习就是一种表达能力灵活多变,并且通过不断尝试优化逐渐逼近目标的机器学习方法。而大数据则是在2000年前后,随着信息交换、信息存储和信息处理三项能力的大幅提升而产生的海量数据。深度学习就好比一台性能强劲的汽车引擎,而大数据则是源源不断输入这台引擎的燃料。

而引发人们对于隐私保护问题的担忧的正是大数据的采集

据不完全统计,我们国家的摄像头数量已经超过一亿,在全世界居于首位。这意味着,我们只要出门,就会暴露在摄像头的监控之下。结合人脸识别、语义分析、GPS定位等技术,并关联其它一些电子化的数据,比如交通卡、门禁卡、身份证的刷卡记录,已经可以比较完整地勾画出一个人的行为轨迹,甚至保留了当时的穿着打扮、面部表情这些细节。

现代人的生活已经离不开手机。每天我们在手机上产生大量的数据,其中绝大部分是你不愿和其他人分享的私密信息。而你,根本搞不清楚手机上那些令人眼花缭乱的安全隐私设置。

甚至,

你根本不知道谁正在将你的隐私信息转化成为源源不断的商业利润。

而我们能做什么呢?

欧洲是对个人数据的保护最为关注的地区之一,今年5月25日生效的GDPR法律就是很好的例证。欧美企业正在面临越来越严苛的隐私监管,它对不合规的企业将处以2千万欧元或者全球营收4%的取高的罚款。请注意,是全球营收的4%。

而黄颂觉得仅仅靠法律的威慑是不够的,人工智能的应用的设计者们应该从底层架构上对隐私数据进行足够保护。

移动设备为例,最基本的保护叫做数据匿名化,比如系统会将一个人的姓名转化成为一串不可还原的数字串,这样就无法知道这个人原来的名字是什么。

Apple提出了差分隐私的概念,它通过在原始数据中加入噪音来保护真实的数据。因此,Google提出了所谓联盟学习的解决方案——数据并不离开终端设备,也不保证满足差分隐私的要求,直接就地训练。

三、法律对AI的约束力

当人工智能发展得越来越强大,在某些方面已经可以完胜人类的时候,从理智上来讲,将更多的决策任务交给AI是更加合理的选择。甚至网络上流传出AI即将替代人类的传言。然而,不知道你是否想过,当一个决策是AI代替或者辅助人类作出的时候,一但决策失误,这个锅将由谁来背呢?

2016年5月7日,美国佛罗里达州,一名40岁的男子坐在一辆自动驾驶模式的特斯拉轿车上,全速撞上了一辆横穿公路的白色拖挂车,最终车毁人亡。美国国家公路安全管理局最终给出了这起事故的调查结论,特斯拉的自动驾驶模式设计并无明显缺陷,但是同时从调查结果看,驾驶员也没有明显过错。对这起事故各方责任的界定陷入了困境之中,因为传统的法律认为,无过错无责任。

虽然各国的立法者目前在此类事故责任界定问题上并未达成一致,但有一点大家是有共识的,那就是,人工智能系统必须在程序层面具有可追责的特性,能够清楚地解释在每个环节上为什么采用特定的方式运作。

四、如何让杀人蜂遵守机器人三原则

在联合国大会上公开展示过的一种杀人机器人,从硬件和软件配置上来看,非常像一个配备有摄像头和传感器的飞行器。它可以做人脸识别,并没有什么稀奇。不过,它同时会携带异型炸药,并且被编程注入了创造者的意志,去完成一个特定的任务,比如消灭一个人类。它不会妥协,不会恐惧,不会背叛,不会中止,并且可以被低成本大量复制。这些特性足以让它成为比一般人类杀手或者士兵更令人闻风丧胆的杀戮机器。

2018年的7月18号,马斯克、哈萨比斯等2000多人签署宣言:决不允许杀人机器人出现!因为这些人类的顶级人工智能专家们非常清楚:

一但潘多拉的盒子被打开,就再也关不上了。

对此,黄颂非常悲观地觉得,这样的宣誓毫无约束力。

当每一个人都可以利用科技决定别人的生死,如何防患于未然,是全人类绕不过去的一个伦理抉择。

五、阿西洛马人工智能原则能否对AI带来约束

国际社会对于人工智能伦理的探索,从未停止过。最著名的研究成果之一,被称为“阿西洛马人工智能原则”。它是著名的阿西莫夫机器人三大法则的扩展版本,主要分为三大类:科研问题、伦理价值和长期问题。其中就谈及了AI的法律责任以及可解释性、可追溯性的要求,第十二、十三条谈及了对人们隐私的保护,第十八条谈及禁止军备竞赛和杀人武器的制造,这些都是我们刚才讨论过的话题。

人工智能日新月异的发展速度,将许多始料未及的伦理挑战摆在人类的面前。我们没有时间和理由去迟疑。应对这些伦理挑战,不仅仅是少数立法者的职责,更是全体人工智能从业者不可推卸的责任。

这是黄颂的演讲视频

部分图片来源|讲者PPT

一刻 talks ・ 全球创见者分享平台

长按下方二维码发现更多未知惊喜

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181029A094UP00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券