人工智能的算法公平性实现
扫描二维码
随时随地手机看文章
我们解决了算法公平性的问题:确保分类器的结果不会偏向于敏感的变量值,比如年龄、种族或性别。由于一般的公平性度量可以表示为变量之间(条件)独立性的度量,我们提出使用Renyi最大相关系数将公平性度量推广到连续变量。我们利用Witsenhausen关于Renyi相关系数的角色塑造,提出了一个链接到f-区别的可微实现。这使得我们可以通过使用一个限制这个系数上限的惩罚,将公平意识学习推广到连续变量学习。这些理论允许公平扩展到变量,如混合种族群体或没有阈值效应的金融社会地位。这种惩罚可以通过允许使用深度网络的小批量生产来估计。实验结果表明,二进制变量的最新研究成果令人满意,并证明了保护连续变量的能力。
1. 介绍
随着人工智能工具在社会中的普及,确保敏感信息(例如个人的种族群体知识)不会“不公平地”影响学习算法的结果,正受到越来越多的关注。为了实现这一目标,正如在相关工作3.1节中详细讨论的那样,有三类方法: 首先修改一个预先训练的分类器,同时最小化对性能的影响(Hardt等人,2016;Pleiss等人,2017),其次在训练期间执行公平性,可能以凸性为代价(Zafar等人,2017);第三,修改数据表示并使用经典算法(Zemel 等人, 2013;Doninietal等人,2018)。正如(Hardt 等人, 2016) 所阐述的,算法公平性的核心要素是在两个精心选择的随机变量之间估计和保证(条件)独立性的能力--通常涉及由算法作出的决定和保护的变量以及“积极的”结果。在接下来的介绍中,我们将把这两个随机变量称为u和v。虽然在一般情况下u和v可以是连续变量——例如预测概率或时间等变量——但迄今为止,公平方面的大部分工作都集中在保护分类变量上。本文中,我们放松了这种假设。
从应用的角度来看,这是可取的,因为它避免了考虑将连续值作为预先确定的,在学习模型中呈现阈值效应的“分类箱”。当考虑到年龄、种族比例或性别流动性测量时,这些阈值没有实际意义。此外,一种描述公平性约束的平滑和连续的方法——一种同时考虑元素顺序(例如10yo