前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >2020:让人工智能变得更加可靠的一年

2020:让人工智能变得更加可靠的一年

作者头像
deephub
发布2020-05-09 16:21:57
4110
发布2020-05-09 16:21:57
举报
文章被收录于专栏:DeepHub IMBADeepHub IMBA

本文作者:艾米·霍德勒(Amy Hodler)是图数据库公司Neo4j的数据分析和AI项目主管,也是《Graph Algorithms: Practical Examples in Apache Spark & Neo4j》的合著者。

在世界各地,企业和政府预计将更倾于转向人工智能(AI),利用其潜力实现决策的自动化和改进。人工智能的前景是将复杂的系统改造成更透明、更安全、更智能、更能大规模操作的系统。既然这些也都是我们在道德供应链中坚持的同样的要素,为什么不使用类似的方法来改善我们的人工智能供应链呢? 为了实现这样的前景,人工智能系统必须变得比我们迄今所见的更可靠,并鼓励更多的信任。以下的这两个因素是互相关联的,问责制和适当的数据使用将鼓励对AI的投资和采用。同样,人工智能的进一步发展将要求民众信任这项技术,相信人工智能主导的决策的公平性,以及他们的数据如何被使用。为了创造更负责任的人工智能,我们必须有适当的结构来理解我们的人工智能供应链:我们数据之间的所有联系和背景,数据的收集和处理方式以及可能已被编篡和/或放大的假设和偏见。

决策和责任

随着人工智能应用的增加,分配决策责任将变得更加困难。如果错误造成伤害,谁会受到惩罚?对于在医院、法庭和工作场所做出的高风险决策,需要一个跟踪责任制的系统,决定谁得到保险,谁得到何种法律解决,以及谁被雇用。我们可以从调整AI的成功衡量标准到期望的结果开始,并回答一些问题,如我们如何知道人工智能系统是错误的。

透明度

如果一个不透明的人工智能系统被用来做出重大决定,那么很难找出具体行动方案背后的原因。在供应链中,跟踪对理解至关重要。我们应尽可能使用可解释的模型来为推理过程提供清晰的解释。

消除偏见

机器学习(ML)系统可以巩固决策系统中存在的偏见。必须注意确保人工智能进化为非歧视性的。为了改善这些危险,我们的人工智能供应链需要完全理解用于训练和测试的数据。例如,我们必须能够回答关于数据是如何收集的、由谁收集的,以及这些数据是否能代表模型将如何应用的问题。数据沿袭(Data lineage)和防止数据操纵是可信人工智能的基础。这不仅意味着跟踪数据,还意味着变化的沿袭。例如,清理数据有什么影响,以及从数据中添加或删除了什么?同样,就像我们坚持要跟踪和提醒医疗补品中的任何成分变化一样,我们也应努力跟踪数据变化并检查是否有数据操纵的迹象。

2020年增长势头

在2019年,随着人们和政府意识到这一点,我们看到了公共,私人和政府对创建AI系统准则的转折点,这些准则可以更好地与文化价值观保持一致。去年,欧盟(European Union,EU)发布了有关任何AI系统应被视为“可信赖”的七个关键要求的建议。欧盟AI专家小组建议AI系统应该赋予人类权力,使他们能够做出明智的决定并促进其基本权利,而AI系统和它的决策应该以适合利益相关者的方式被加以解释。大多数评论员都认为这些想法是正确的,指导是有用和及时的。但这只是一个开始,还有很多工作要做。到2020年,这种势头将会加速,新的更新清单将会发布。此外,更多组织将开始使用独立的风险评估,并将跟踪人工智能供应链中的人的元素纳入其中。例如,监控所涉及团队的多样性,包括可能影响选择的文化背景,甚至考虑他们的工作条件。与此同时,为了显著提高我们解释人工智能系统如何获得其政策建议的能力,我们预计各组织将寻求一种越来越有前景的方法来增加人工智能的可靠性和信任度——图技术。有关AI的逻辑是,当我们添加上下文背景信息(context)时,AI表现得更好,更容易跟踪。为了加强AI的能力,人工智能系统需要提供相关信息,以利用这些信息解决我们希望它们解决的问题。这将使他们拥有更大的能力,并且处理更复杂、更细微的决策。

使AI预测更加可靠和值得信赖

图(Graphs)提供了许多方法来添加重要的上下文层。让我们考虑一下人工智能中的一个例子。软件产品会因提供错误或难以理解的答案而臭名昭著。ML分类器曾经建立导致商品分类错误的关联,例如将炸薯条分类为蟹腿。撇开算法不谈,理解什么数据被用来训练我们的模型,以及为什么这对于验证分类和预测是极其重要的。数据沿袭(Data lineage)是记录数据点起源的任何项目的系统,它是如何收集和处理的,以及假设和偏见可能已经被编纂/放大,以及它如何随着时间的推移而移动。这些信息很容易在图网络表示中进行编码。图(Graphs)已经成为管理供应链、帮助协调、跟踪和理解复杂相互依赖关系的非常强大和行之有效的工具。如今,由于良好的供应链管理和道德规范,您可以购买一条环保的牛仔裤或公平贸易的咖啡,但是您不知道AI系统是否经过道德培训或使用的数据是否有偏见。这是不可接受的。我们相信,在2020年,随着人工智能和伦理道德的挑战成为一个越来越紧迫的问题,我们需要为人工智能提供正确的背景和透明的决策,为跟踪我们人工智能供应链的要素打下简单的基础。现在是我们开始的时候了,这样做使可信的人工智能应用成为现实。

DeepHub翻译小组:Amberrr_XR 译

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-03-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 DeepHub IMBA 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 决策和责任
  • 透明度
  • 消除偏见
  • 2020年增长势头
  • 使AI预测更加可靠和值得信赖
相关产品与服务
图数据库 KonisGraph
图数据库 KonisGraph(TencentDB for KonisGraph)是一种云端图数据库服务,基于腾讯在海量图数据上的实践经验,提供一站式海量图数据存储、管理、实时查询、计算、可视化分析能力;KonisGraph 支持属性图模型和 TinkerPop Gremlin 查询语言,能够帮助用户快速完成对图数据的建模、查询和可视化分析。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档