专栏首页机器之心欧盟发布《人工智能道德准则》:「可信赖 AI」才是 AI 的指路明灯

欧盟发布《人工智能道德准则》:「可信赖 AI」才是 AI 的指路明灯

选自欧盟官网

机器之心编译

参与:张倩

近日,欧盟委员会发布了由人工智能高级专家组(AI HLEG)编制的《人工智能道德准则》(AI Ethics Guidelines)草案,指出 AI 的发展方向应该是「可信赖 AI」,即确保这一技术的目的合乎道德,技术足够稳健可靠,从而发挥其最大的优势并将风险降到最低。该准则旨在为 AI 系统的具体实施和操作提供指导。《准则》最终版将于 2019 年 3 月发布。

执行摘要

人工智能是这个时代最具变革性的力量之一,它可以为个人和社会带来巨大利益,但同时也会带来某些风险。而这些风险应该得到妥善管理。总的来说,AI 带来的收益大于风险。我们必须遵循「最大化 AI 的收益并将其带来的风险降到最低」的原则。为了确保不偏离这一方向,我们需要制定一个以人为中心的 AI 发展方向,时刻铭记 AI 的发展并不是为了发展其本身,最终目标应该是为人类谋福祉。因此,「可信赖 AI」(Trustworthy AI)将成为我们的指路明灯。只有信赖这项技术,人类才能够安心地从 AI 中全面获益。

「可信赖 AI」由两部分组成:1)它应该尊重基本权利、相关法规、核心原则及价值观,确保其目的合乎伦理道德;2)它使用的技术应该非常稳健、可靠,因为即使是出于好意,如果没有成熟技术的加持,技术也会带来意想不到的伤害。这些指导原则构成了「可信赖 AI」的基本框架:

「可信赖 AI」框架

  • Chapter I :确保人工智能的目的合乎道德,规定了人工智能发展应该遵守的基本权利、原则和价值观。
  • Chapter II:关于实现「可信赖 AI」的指导原则,同时强调 AI 发展目的的道德性和技术稳健性。这部分列出了「可信赖 AI」的要求,以及实现这些要求所需的技术和非技术方法。(详细内容见下文)
  • Chapter III:提供「可信赖 AI」的具体但非详尽的评估列表实施要求。该列表将根据具体的用例进行调整。

与其他有关 AI 伦理道德的文件相比,这份准则的目的不是为 AI 增加一份核心价值观和原则清单,而是为 AI 系统的具体实施和操作提供指导。

该准则面向开发、部署或使用 AI 的所有利益攸关方,包括公司、组织、研究人员、公共服务单位、机构、个人或其他实体。该准则的最终版将提出一种机制,是否认可这些这些准则将由利益攸关方自行决定。

需要指出的是,制定这些准则并不是为了替代任何形式的决策或监管,也不是为了阻止其出台。这份准则应该不断更新,以适应技术和知识发展的要求。

「可信赖 AI」的实现

这一部分为「可信赖 AI」的实施和实现提供了指导,指出实现「可信赖 AI」有哪些要求,在发展、部署、使用 AI 的过程中有哪些方法可以满足这些要求,从而充分利用由 AI 创造的机遇。

1.「可信赖 AI」的要求

实现「可信赖 AI」意味着需要在 AI 系统和应用的具体要求中加入一般、抽象的原则。以下是从 Chapter I 的权利、原则和价值观中衍生出的十条要求。这十条要求同样重要,但实施过程中需要考虑不同应用领域和行业的具体背景。

  • 问责机制
  • 数据治理
  • 为所有人设计
  • 人工智能自治的治理(人的监督)
  • 非歧视
  • 尊重(增强)人类自主性
  • 尊重隐私
  • 稳健性
  • 安全
  • 透明

《准则》还对每一项要求进行了进一步解释。例如,在「问责机制」这项要求中,《准则》指出,问责机制的选择可能非常多样,从金钱补偿到过失调查,再到没有金钱补偿的和解。如一个系统误读了药品报销申请,错误地决定不予报销,系统所有者可能会被要求做出金钱补偿。其他要求的详细内容请参考原文。

这一清单按字母顺序对要求进行排序,以表明所有要求同等重要。Chapter III 还提供了一份评估清单,以支持这些要求的实施。

2. 实现「可信赖 AI」的技术和非技术方法

为了满足上一节中提到的要求,开发过程的所有层面(包括分析、设计、开发和使用)都可以采用技术和非技术方法(参见图 3)。对实施这些要求和方法的评估,以及对流程变化的报告和论证应该持续进行。事实上,考虑到 AI 系统不断发展,以及在动态环境中运行,实现「可信赖 AI」可以看作一个持续的过程。

虽然这份准则中的方法列表并不详尽,但它旨在列出实施「可信赖 AI」的主要方法。为了提高 AI 系统的可信度,这些方法应该基于第一章中定义的权利和原则。

图 3 显示了权利、原则和价值观对系统开发过程的影响。这些抽象的原则和权利被具体化为对 AI 系统的要求,该系统的实施和实现要由不同的技术和非技术方法支持。此外,考虑到 AI 技术的适应性和动态性,继续坚持原则和价值观要求将评估(evaluation)和论证(justification)流程作为开发流程的核心。

图 3:通过系统的整个生命周期实现「可信赖 AI」

报告地址:https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai

本文分享自微信公众号 - 机器之心(almosthuman2014)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2018-12-26

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • AI时代的产业智能化改造,被一家通讯公司玩转

    大量 AI 公司开始重新思考商业逻辑的合理性,而投资者也变得理性而谨慎。泥沙俱下的商业环境里,什么公司才能在这个 AI 的下半场赢得漂亮?

    机器之心
  • 报告 | 普华永道发布2018 AI预测报告:塑造商业策略的8个洞察

    机器之心
  • 吴恩达宣布启动AI Fund:1.75亿美金进军AI创投

    机器之心
  • 对话迈克尔·乔丹:太多人关注个体智能,而不关注体系

    在这一波技术热潮中,AI 就像灵丹妙药一般被推向了技术进步的神坛,它用在哪个领域似乎都不违和。但在一片热情的喧嚣声中,有举足轻重的人物时不时跳将出来,泼一泼冷水...

    AI科技大本营
  • 华尔街日报:AI 飞速发展,但仍有很长的路要走

    【新智元导读】本文作者是一名拥有神经科学和行为生物学学位的资深科技记者/专栏作家,作者认为现在的AI好比正从水母向智慧生物进化的阶段,距离实现拥有真正智能的AI...

    新智元
  • 基于图像识别的AI自动化测试框架:GAME AI SDK平台解析

    导语 | GAME AI SDK 是腾讯 TuringLab 研发的首个开源项目,着重解决自动化测试工具中的通用性问题,最初主要用于游戏 AI 自动化测试服务,...

    腾小云
  • 【福布斯】O‘reilly人工智能大会,LeCun 等解读人工智能12大痛点

    【新智元导读】如今人工智能发展到底处于何种状态,面临哪些难点,未来发展潜力如何?参加了O‘reilly人工智能大会的行业专家Gll Press带来了他的12个观...

    新智元
  • 腾讯绝悟AI完全体限时开放体验,研究登上国际顶会与顶刊

    感谢阅读腾讯AI Lab微信号第112篇文章。本文将介绍绝悟 AI 完全体升级版本的技术方法,也欢迎读者到王者荣耀 app 亲身体验其技术实力。 腾讯 AI ...

    腾讯技术工程官方号
  • 2017 年关于 AI 的九项预测

    T客汇官网:tikehui.com 译者| 徐婧欣 ? AI 算是 2016 年的一个热点,并且热度在短期内并不会消散。投资、收购、尝试、重组和突破使 AI 产...

    人称T客
  • 【调查】The State of AI:关于人工智能的 6 大真相

    【新智元导读】柏林一家AI初创公司Explosion AI最近做了一份针对AI当前状态的调查(The State of AI),调查对象面向AI从业人员,调查的...

    新智元

扫码关注云+社区

领取腾讯云代金券