为什么偏见是错误的?(1)英语世界自由主义政治哲学中的平等与公正
当人工智能被认为存在偏见时,人们通常会对它为什么有偏见以及这样做有什么不对等问题作出不明确的假设。哲学家们可以阐明并讨论这些论点。其中一种论点是基于 平等 的:如果基于人工智能的建议或决策是有偏见的,我们可以将其归结为人们遭受不平等对待。然而,在政治哲学中,关于平等的含义存在很大分歧。平等的一种观念是 机会平等 。在普遍主义的自由主义“色盲”(blind)的平等观念中,这可以表述为:人们应该享有平等的机会,无论其社会经济背景、性别、种族背景等如何。
就人工智能而言,这意味着什么?想象一下,一个人工智能算法被用于选择求职者。成功的两个标准很可能是学历和相关工作经验:在这两项上得分较高的求职者将有更大的机会获得算法的录用推荐。因此,算法会歧视学历和相关工作经验较低的人。但这通常不会被称为“歧视”或“偏见”,因为我们假定这里尊重的是机会平等,即所有申请者都有机会获得适当的教育和相关的工作经验并申请工作,而与社会经济背景和性别等标准无关。算法对这些特征都是“色盲”的。
然而,一些哲学家对这种机会平等的观念提出了质疑:他们认为,实际上有些人(如社会经济背景较差的人)获得相关教育背景和经验的机会较少。根据这些观点,真正的机会平等意味着我们要创造条件,让这些条件较差的人有平等的机会获得理想的教育和工作经验。如果做不到这一点,算法就会歧视他们,其决定就会因为这种机会不平等而被称为有偏见。如果这些批评者坚持普遍主义的自由主义“色盲”平等观,他们就会要求所有人获得平等的机会,无论他们来自哪里、长相如何等等。如果人工智能——尽管可能是出于好意——无助于实现这一点,那么它就是有偏见的,就需要纠正。从非色盲的观念出发(见下文),我们可以要求为弱势群体提供更多的教育和就业机会。人们还可以说,只要情况不是这样,算法就需要以一种积极性差别待遇的方式作出决定,以有利于来自这些(阶层)背景的人和这种性别的人,等等。从机会的角度来理解,这些都是人工智能可能威胁平等的不同理由。
这些论点已经指出了两种不同的平等观:一种是基于阶级或身份的平等(见下一节),另一种是基于结果(这里指工作)而非机会的平等。希望算法对这些特定阶层或群体进行积极的差别对待的人,心中都有一个特定的结果:对所选候选人进行特定分配(例如,50%的女性候选人),最终营造一个工作分配更加平等、历史上的不平等能得以终结的社会。人工智能可以帮助实现这一结果。这不再是机会平等,而是 结果平等 。但结果平等意味着什么,分配应该是什么样的?它是指每个人都应该拥有同样的东西,每个人都应该拥有最低限度的东西,还是指应避免严重的不平等?此外,正如德沃金(2011,347)所问的:平等本身是一种价值吗?
在英语世界的政治哲学中,平等并不是一个非常流行的概念。许多经典的政治哲学导论甚至都没有关于这一主题的章节(Swift 2019是个例外)。表达偏见及其错误原因的一种更常见的方式是依赖于正义概念,尤其是 作为公平的正义 (justice as fairness)(Rawls 1971;2001)和 分配正义 (distributive justice)。通常的说法是,算法产生的偏见是 不公平 的。但是,作为公平的正义意味着什么?如果有什么东西需要重新分配,怎样才算公平分配?这里也有不同的观念。再以人工智能招聘为例。除了考虑教育和工作经验等标准外,还发现邮政编码是一个与统计相关的类别:想象一下,成功找到工作与居住在(社会经济)“好的”富人区之间存在相关性。结果可能是,在其他条件相同的情况下(例如,所有求职者的教育水平相同),来自“差的”贫困社区的求职者被算法选中的概率较低。这似乎是不公平的。但究竟什么是不公平,为什么不公平?
首先,可以说以邮政编码来区别对待是不公平的,因为虽然有统计上的相关性,但没有因果关系。虽然许多居住在该社区的人找到工作的概率较低(受到其他因素的影响,如缺乏良好的教育),但这个人并没有也不应该仅仅因为他属于这个统计类别(拥有某邮政编码)就降低其找到工作的概率,虽然他确实受过良好的教育,而且在其他指标上也表现出色。这个人受到了不公平的待遇,因为作出决定所依据的标准与本案无关。其次,我们也可以想一想,该社区的许多其他人实际上接受的教育更差、相关工作经验更少等,他们获得工作的机会也更少,这是否公平?我们为什么允许在这方面存在如此大的差异?这个问题也可以从机会平等的角度来解释。但也可以说这是一个作为公平正义的问题:教育的分配、工作机会的分配以及工作的实际分配都是不公平的。接下来的问题是:这些不公平的原因究竟是什么?
根据作为公平的正义的观念,即 平等主义 和 再分配 的观念,需要的是每个人都得到同样的东西。这意味着社会政策和人工智能算法确保每个人都有平等的机会获得工作,或者每个人都能获得工作(在这种情况下,我们首先就不需要选择算法)。虽然这是在厨房餐桌上或在朋友之间处理分配正义的一种流行方式(如需要分配蛋糕时),但它在政治、工作聘用等方面往往不那么受青睐。很多人似乎认为,在社会中完全平等的分配是不公平的,功绩才是最重要的,有才能的人应该得到更多,而且(在我看来,令人惊讶的是)继承的财富和资助根本不会造成公正问题。例如,诺齐克(1974)认为,人们可以对自己拥有的东西为所欲为:只要是通过自愿转让获得的,他们就有权拥有。他为保护生命权、自由权、财产权和契约自由的最小国家辩护,反对再分配正义的概念。
但是,由于天赋和继承钱财并不受个人控制,而是运气问题。因此,有人可能会说,这些因素不应该在公正中发挥作用,基于这些因素的不平等是不公平的。 功绩主义 (meritocratic)的公正观会将成功的选择限制在与人们的实际工作有关的因素上,例如努力工作以获得就业岗位。因此,一种公平的算法应该是一种将优点考虑在内的算法。然而,这也是有问题的,因为学位和其他结果等外在标准并不一定能告诉我们,一个人为了获得这一结果付出了多少努力。我们怎么知道例子中的人是通过什么努力获得学位的呢?例如,考虑到申请人的教育和社会背景,他可能很容易就获得了学位。我们又如何知道那些生活在“差的”社区中的人的优点呢?当我们考虑到他们的背景并从糟糕的结果(这里指的是没有学位)来看待这一点时,我们可能会认为他们没有做太多的工作来改善自己的处境,而实际上可能并非如此,因此他们应该得到远远多于在所谓功绩观念下得到的东西。从功绩的角度来理解公正可能是公平的,但却不那么容易实现。
然而,即使人们拒绝将公正视为绝对的分配平等或基于功绩的公正,也还有其他关于公正的观念。一种观点认为,如果每个人都能获得最低限度的特定物品(这里指的是获得工作的机会),那就是公正的。根据这种 充足主义 (sufficitarian)的正义观(例如,Frankfurt 2000;Nussbaum 2000),我们需要设立一个门槛。在这样的社会中,住在富人区的人仍然有更多的机会被算法选中。但生活在贫困社区的人,无论其他因素如何,都会有一个 最低限度 的机会去获得工作。居住在特定社区与获得工作之间的相关性仍然存在,但其在决策过程中的相关性会减弱。之所以会出现这种情况,要么是因为在算法运作之前或之后有不同的政策带来了这种变化,要么是因为算法的调整方式使其给每个人提供了最低机会(成功的临界值),其他因素有可能增加这种机会,但不可能低于临界值。或者,每个人都可能获得最低限度的工作时间(和收入)或最低限度的金钱。
然而,根据 优先主义 (prioritarian)的公正观,这仍然是不公平的。来自好社区的人仍然会有更大的机会获得工作,而当他们获得工作时,他们的工作将是全职的,收入也会高得多。优先权论者认为,我们需要的是优先考虑最弱势的群体。在此这可能指的是一种政策,其重点是为弱势群体提供工作机会(不考虑其他标准),或者显著增加已经处于不利地位的人的工作机会:例如,通过一种算法增加生活在贫困社区的人的工作机会,即使他们在教育和工作经验等相关因素上得分较低。
罗尔斯为优先主义立场提供了一个著名的政治哲学论证,该论证也回应了天赋是运气问题的观点,并建立在机会平等的基础之上。在《正义论》( A Theory of Justice )(1971)中,他在“原初状态”(original position)中使用了所谓“无知之幕”(veil of ignorance)的思想实验。试想一下,你不知道自己是否天资聪慧,不知道自己的父母是穷是富,不知道自己是否拥有平等的机会,不知道自己将生活在“好的”社区还是“差的”社区等等,也不知道自己将在社会中处于何种社会地位,那么你会选择什么样的正义原则(进而选择什么样的社会)?罗尔斯认为,人们会提出两个原则:第一个原则是给予所有人平等的自由,第二个原则是在安排经济社会的不平等时,使最少受惠者获得最大利益并创造机会平等。如果不平等能最大限度地提高最贫困者的地位,那就没有问题。这就是所谓的差别原则(the difference principle)。
根据罗尔斯的这些原则,基于邮政编码进行选择的有偏见的算法问题,并不是说它的建议反映了社会经济资源的不平等分配,也不是说它反映了一个社会中一些人的收入低于最低标准,而是说它反映和揭示了一个社会既无机会平等,也没有通过不平等最大限度地提高最贫困者的地位。如果这些原则在政策中能得到贯彻,那么我们就不会看到邮政编码与获得工作的机会之间存在如此高的相关性。居住在该地区的其他人会有更多的机会找到工作,也不会处于如此不利的社会地位。因此,算法只会发现微弱的相关性,而邮政编码在其推荐中也不会发挥如此重要的作用。受过良好教育、有良好背景但生活在贫困地区的人,其社会地位与自己相差甚远的情况将不复存在,或者至少问题不会那么明显,因此也就不会出现算法歧视这一具体问题。此外,即使目前的情况非常不公正,我们也可以改变算法使最贫困者的地位最大化:根据罗尔斯的差别原则,这种积极性差别待遇会改变实际的处境。我们可以把这称为“设计的积极性差别待遇”(positive discrimination by design),是“公平设计”(fairness by design)的一种具体形式。
请注意,这种形式的积极性差别待遇首先需要程序员和设计师意识到潜在的偏见,尤其是 无意的 偏见。更广义地说,他们必须意识到,即使没有歧视或其他政治相关后果的意图,设计选择也可能产生诸如公正和平等方面的后果。在提高对潜在政治后果的认识、识别偏见以及更广泛地在设计中贯彻政治和道德价值观等方面还有很多工作要做。例如,当训练数据中没有明确提及性别、种族等标准时,识别偏见可能会很困难(Djeffal 2019,269)。而当问题没有被认识到时,就不可能有解决方案,包括积极性差别待遇。算法公平性方面的技术工作可以帮助解决这个问题:它试图在使用人工智能算法时识别、衡量和改善公平性(例如,Pessach and Shmueli 2020)。结合法律框架中的权利类型,这可能会导致哈克(Hacker 2018,35)所说的“设计的平等待遇”(equal treatment by design)。但正如我们所见,平等只是解决问题的一种方式。此外,设计也可以被用来进行积极的差别待遇。在这种情况下,算法公平性的目的和定义并不是算法结果独立于性别、种族等变量,从而避免负面偏见,而是对一个或多个此类变量产生正面偏差,从而纠正历史上或现有的不公平。
然而,正如我们即将看到的那样,积极性差别待遇的措施通常不是由那些在自由主义哲学传统中工作的人提出的,而是由那些批评自由主义哲学传统的人提出的,或者至少是批评其普遍性的人提出的。