学习
实践
活动
专区
工具
TVP
写文章

欧盟正式发布人工智能道德准则草案

人工智能(AI)的公平性及道德规范在 2018 年成为重要议题,现在法律规范力量准备介入。欧盟委员会(EC)任命的人工智能高级专家小组(AI HLEG)刚刚发布了 AI 开发和使用的道德草案—可信赖 AI 的道德准则草案(Draft Ethics Guidelines for Trustworthy AI),内容长达 37 页,提出可信赖 AI 应具备两大要素,以及 AI 不可为的基本原则。

可信赖 AI 的两大要素

AI HLEG 表示,AI 无疑是这个时代最具变革性的力量之一,必将改变社会结构,我们必须确保最大化 AI 的优势,同时降低风险,因此需要以人为本的人工智能方法,AI 的开发和使用不应被视为一种手段,应视为增加人类福祉的目标。“可信赖的 AI ”(Trustworthy AI)将成为人类的北极星。

欧盟 AI 道德准则草案指出,可信赖的 AI 有两个组成要素:一、应尊重基本权利,适用法规、核心原则和价值观,以确保“道德目的”(ethical purpose),二、兼具技术鲁棒性(robust)和可靠性,因为即使有良好的意图,缺乏技术掌握也会造成无意的伤害。另外,AI 技术必须足够稳健及强大,以对抗攻击,以及如果 AI 出现问题,应该要有“应急计划”(fall-back plan),例如在 AI 系统失败了,必须要求交还由人类接手。

图|欧盟提出可信赖 AI 的道德准则草案以及框架(图片来源:欧盟)

另外,可信赖 AI 的不可为,包括不应以任何方式伤害人类;AI 不应限制人的自由,换句话说,人们不应该被 AI 驱动的机器征服或强迫; AI 应该公平使用,不得歧视或诬蔑;AI 应透明地运作,也就是说,人类需要知道 AI 正在开发的目的,以及如何使用它;AI 应该只为个人和整个社会的福祉而发展

草案也提出了框架,第一章阐述 AI 必须遵守的基本权利和价值观,以确保 AI 符合道德目的。第二章则是实现可信赖 AI 的指导方针,同时兼顾道德目的和技术稳健性,并列出可信赖 AI 的要求,包括技术和非技术方法。第三章则提供了具体但非穷举的可信赖 AI评估表。

图|可信赖 AI 的生命周期(图片来源:欧盟)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181225A0H1Q800?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

关注

腾讯云开发者公众号
10元无门槛代金券
洞察腾讯核心技术
剖析业界实践案例
腾讯云开发者公众号二维码

扫码关注腾讯云开发者

领取腾讯云代金券