新的缓解框架减少了分类结果的偏差
我们使用计算机来帮助我们做出(希望)公正的决策。问题是,如果用于训练机器学习算法的数据中存在人类偏见,那么机器学习算法并不总是能够做出公平的分类——在实践中这种情况经常发生。为了缓解这种“垃圾输入,垃圾输出”的情况,一个研究小组提出了一个灵活的框架来减轻机器分类中的偏见。他们的研究于 4 月 8 日发表在《智能计算》上,这是一本科学合作期刊。
该团队表示,现有的减轻分类偏差的尝试常常因依赖特定的公平性指标和预先确定的偏差项而受到阻碍。团队的框架避免了这两种类型的依赖;它们的偏差缓解可以在不同的公平性指标下进行评估,并且它们从数据中推断出特定的偏差项。
该团队在 21 个机器分类器的 7 个数据集上评估了该框架。在整个实验中,分类结果的偏差大大减少,分类准确性基本保持不变——在公平性与效用权衡下效果理想。
该框架共享对抗性去偏方法的设置,考虑 Alice(例如企业)和 Bob(例如监管者)之间的提议-审查场景。 Alice 向 Bob 发送了一份提案,要求使用他的数据开发目标分类器,例如大学匹配系统。鲍勃审查了该提案,旨在确保爱丽丝的分类不会在他旨在保护的敏感维度(例如学生的中学转学经历)上表现出重大偏见。目标是构建一个分类器,该分类器在受保护的维度上具有最小的区分度,并且在目标分类中仅牺牲很小的性能。
偏差缓解是通过识别容易引入偏差的数据属性,然后对这些属性下的记录应用有效的数据转换来实现的。这涉及评估属性对数据分离的贡献,计算属性之间的距离,并利用这些距离在构建的偏差超空间中建立偏差属性映射。通过此映射,可以推断出偏差项,识别容易产生偏差的属性,并测量其偏差浓度。
然而,由于可扩展性限制等因素,该工作流程在应用于大型数据集时可能会遇到困难。
在未来的研究中,考虑到公共部门和私营部门之间的潜在冲突,该团队有兴趣扩展该框架,以直接在分类公平性和准确性之间取得平衡。从更广泛的角度来看,将行为特征纳入分类偏差缓解并分析此类框架应用中的实际设置是一个重要方向。
版权声明:本文由用户上传,如有侵权请联系删除!