人工智能也有不为人知的“黑暗面”?

我们多数会认为算法比算法的创建者更客观,但这似乎过于理想化了。

算法是令人难以置信的辅助手段,它可以做出数据驱动的高效决策。随着越来越多的行业发现他们的预测能力,企业越来越多地转向算法来做出客观和全面的选择。然而,虽然我们经常依靠技术来避免固有的人为偏差,但是基于算法的决策存在着一个阴暗面:可能会出现同质数据集从而产生有偏见的算法。

许多使用算法的人和企业都希望用他们“创造 ”的技术来代替人类,从而减少无意识的偏见。我们倾向于将客观性归功于技术。

举个例子:标准普尔公司的员工叫做John的男性比其他名字的所有女性还多。如果我们建立了一个CEO绩效的预测模型,就会发现,叫“John”的男性可能比女性更能很好地成为一名成功的CEO。这是否真正反映了一个人能成为首席执行官的潜力,还是只是因为训练集中的偏见而导致的结果?在这个例子中,很显然被命名为“John”就是导致偏见的影响因素。但是,当在现实世界中出现类似的证据时,发现偏见的转变可能并不总是那么容易。

这种情况虽然不那么重要,但仍然令人不安。微软的Twitter机器人Tay,有厌恶和反犹太主义的倾向。如果你在谷歌上搜索大猩猩的图像,则可能会显示黑人的图像。如果你是一个非英语母语的学生,抄袭文章的一部分,Turnitin(一种剽窃检测软件)比母语人士更可能发现你的作弊行为。

微软Twitter聊天机器人Tay

为了避免这样的情况,任何决定影响人们生活的机会的算法都需要一个方法学的设计和测试过程,以确保它没有偏差。因为当你使用人工智能本身来消除算法中的偏见时,结果可能是非同寻常的。

举个例子,我们正在pymetrics工作,在那里我们建立基于顶尖执行者的算法来选择理想的求职者。有时候,我们必须建立一个基于同类群体的算法,例如所有的白人。

算法开发过程的一个关键部分是纠正偏见,以便任何人,无论其性别或种族,与任何工作都具有相同的匹配概率。任何算法创建者都有责任检查偏差,删除它并监控结果,以确保它创造平等的机会。

其他技术驱动的平台,如Humanyze和HireVue,也正在开发流程,以消除算法的偏见,并创造平等的就业机会。通过使用这些类型的企业开发的无偏倚算法,我们看到全球性组织以过去无法实现的方式显著改变了他们的性别、族裔和社会经济多样性。我们已经看到金融服务公司由原来的80:20的男女员工比例变为现在的50:50。

算法现在正在多样性上发挥了作用,这种方式在我们完全依靠人类做出决定时是前所未有的。

在未来的五到十年中,算法将会直接影响我们的健康状况、就业前景和获得贷款的能力。它们有可能成为我们制定、有效和无偏见决策的最有力工具,但前提是我们有意设计它们。

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20171208G0OK0T00?refer=cp_1026

扫码关注云+社区