人工智能本来并不存在偏见,它不会因为无法通过逻辑来解释的理由而“想”某些东西是真的或假的。不幸的是,从创建算法到解释数据,机器学习中存在着人类的偏见,并且直到现在,几乎没有人试图解决这个严重的问题。
来自捷克和德国的科学家团队最近进行了一项研究,以确定人类认知偏见对解释用于创建机器学习输出规则的影响。
该团队的白皮书解释了20种不同的认知偏见如何潜在地改变机器学习规则的开发,并提出了给它们“去偏”(debiasing)的方法。
偏见,诸如“确认偏见”(confirmation bias)(当一个人接受一个结果是因为它确认了一个先前的信念)或“可用性偏见”(availability bias)(比较重视与个体有关的信息,而不是同样有价值的不太熟悉的信息)会使机器学习数据的解释变得豪无意义。
当这些类型的人为错误成为人工智能的一部分时——这意味着我们的偏见负责选择一种训练规则,这种训练规则塑造了机器学习模型的创造——我们不是在创造人工智能:我们只是混淆我们自己在黑盒子里面有缺陷的观察。
根据白皮书所述,这是全新的领域:
由于缺乏先前的研究,我们的研究将认知心理学中的一般结果转移到机器学习领域。它需要通过专门针对机器学习领域的实证研究来取得成功。
随着越来越多的人工智能系统上线,个人责任感也在发生变化。很快,大多数车辆将由机器操作,大量的手术和医疗程序将由机器人进行。当悲剧发生时,人们会指责AI开发人员,甚至会把某些人当作替罪羊。
研究人员针对他们所研究的每种认知偏见提出了一种去偏旁解决方案。对于许多问题,解决方案与改变数据表示方式一样简单。例如,该团队假设,将算法的输出更改为使用比自然数更多的比率可以大大减少误解某些结果的可能性。
不幸的是,总的问题并没有简单的解决方法。大多数时候,我们不知道自己有偏见。我们相信自己非常聪明或直觉 ,或者我们只是不去想。机器学习程序员需要关注的不仅仅是20种不同的认知偏见。
即使算法是完美的,输出是不变的,我们的认知偏见也使得我们对数据的解释不怎么可靠。每个人都有这样或那样的偏见,这使得它关于如何影响数据解释的研究很少。
该团队介绍:
据我们所知,认知偏见尚未涉及机器学习结果的可解释性讨论。因此,我们发起了这项研究,研究结果发表在认知科学上,目的是为归纳规则学习算法的变化以及结果传播的方式提供心理基础。我们的审查确定了20种认知偏见,启发式和效应,当解释归纳学习规则时可能引起系统性错误。
重要的是,全世界的研究人员都要依靠这项工作并发现避免机器学习中的认知偏见的方法。 否则AI只不过是人类偏见的放大器而已。糟糕的科学势必造就更糟糕的机器人。