谷歌机器学习速成课程新增关于公平性训练模块

编译:chux

出品:ATYUN订阅号

今天,谷歌机器学习速成课程新增加了一个关于公平性的训练模块,且即将推出中文版。

随着机器学习的继续采用,道德和公平是非常重要的考虑因素。虽然AI可以“比基于临时规则或人类判断的决策过程更具公平性和更具包容性”,但用于训练这些模型的数据可能存在潜在的偏差。

其他问题涉及确保人工智能在所有情况下都是公平的,而更广泛地说,“没有公平的标准定义”。

负责任地评估机器学习模型需要做的不仅仅是计算损失度量。在将模型投入生产之前,审核训练数据和评估偏差预测至关重要。

这个新增的长达一小时的课程是由谷歌的工程教育和ML公平团队开发的,该模块着眼于可以在训练数据中体现的不同类型的人类偏见。然后,它提供识别它们并评估其影响的策略。

学习目标

了解可能无意中通过ML算法再现的常见的人类偏见。

在训练模型之前,主动探索数据以确定偏差来源。

评估偏差的模型预测。

课程:developers.google.com/machine-learning/crash-course/fairness/video-lecture

  • 发表于:
  • 原文链接:https://kuaibao.qq.com/s/20181019B1OGCV00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券