原文题目:Fairness-enhancing interventions in stream classification
摘要:由于自动化数据驱动决策支持系统的广泛应用,在没有人工监督的情况下,引起了人们对所使用模型的问责制和公平性的关注。现有的公平感知方法将公平性作为一个批量学习问题来处理,并以学习一个公平模型为目标,该模型随后可应用于该问题的未来实例。然而,在许多应用程序中,数据是按顺序排列的,其特性可能随着时间的推移而变化。在这种情况下,在数据流上“修正”一个(公平)模型是违反直觉的,因为数据中的变化可能导致底层模型发生变化,从而影响其公平性。在这项工作中,我们提出了增强公平性的干预措施,以修改输入数据,从而使应用于该数据的任何流分类器的结果都是公平的。对实际数据和合成数据的实验表明,该方法在流的过程中具有较好的预测性能和较低的识别率。
原文地址:https://arxiv.org/abs/1907.07223
作者:Vasileios Iosifidis, Thi Ngoc Han Tran, Eirini Ntoutsi
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。