导言:偏见与歧视是平等和公正问题的焦点
数字技术和媒体不仅影响自由,也影响平等(equality)与公正(justice,又译“正义”)。梵·迪克(Van Dijk 2020)认为,网络技术在提高生产和分配效率与效益的同时,也导致了不平等的加剧:“在全球范围内,它促使各国综合和不平衡的发展……就当地而言,它推动形成了与全球信息基础设施直接相关的地区与那些不相关的地区之间的二元经济。”经济发展的这种差异造成了社会发展的不同“速度”。一部分人和国家从这些技术和媒体中比其他国家获益更多;这种批评也适用于人工智能。正如前一章所述,机器人技术中的人工智能可能会造成失业,从而加剧不平等。至少从18世纪末开始,自动化的发展就一直在进行。人工智能是这场自动化革命的下一步,它为少数人(人工智能和机器人技术的拥有者)创造了利益,而给多数人带来了失业的风险。这不仅是自由和解放的问题,也是不平等的问题。正如我们已经看到的,斯蒂格利茨等经济学家对收入不平等和社会分裂的加剧提出了警告:人工智能会影响整个社会。除非采取措施减少这些影响——例如,皮凯蒂及其同事建议对超过一定(高)门槛的人群征收高税收(Piketty,Saez,and Stantcheva 2011);还有人建议普及基本收入——否则将产生严重的不平等和贫困等结果。
一个经常与人工智能具体相关并引发平等和公正议题的问题是偏见。与所有技术一样,人工智能也会产生开发者无意造成的后果。其中一个后果是,机器学习形式的人工智能可能会引入、保持和加剧偏见,从而使特定个人或群体处于不利地位并受到歧视,例如以种族或性别界定的人。偏见可能以各种方式产生:训练数据、算法、算法应用的数据以及技术编程团队都可能存在偏见。
一个著名的案例是COMPAS算法,这是美国威斯康星州在决定缓刑时使用的一种风险评估算法:用计算机程序预测再犯风险(再犯倾向)。一项研究(Larson et al.2016)发现,COMPAS对黑人被告的再犯风险预估高于实际情况,而对白人被告的再犯风险预估则低于实际情况。据推测,该算法是根据过去的判决数据进行训练的,因此再现了历史上的人为偏见,甚至加剧了这种偏见。此外,尤班克斯(Eubanks 2018)认为,人工智能等信息科技和“新数据机制”对经济平等和公正产生了不良影响,因为它们往往不能使穷人和工人阶级受益或增强他们的能力,反而使他们的处境更加艰难。新技术被用于操纵、监控和惩罚穷人以及弱势群体,例如以自动决策的形式决定领取福利的资格及其后果,从而导致“数字济贫院”(digital poorhouse)。通过自动化决策和数据预测分析,穷人被管理、被道德化,甚至受到惩罚:“数字济贫院阻止穷人获得公共资源;对他们的劳动、消费、性行为和养育子女进行管理;试图预测他们未来的行为;并对不遵守其规定的人进行惩罚和定罪。”正如尤班克斯认为,这不仅破坏了自由,还造成并维持了不平等。一些人——穷人——被认为经济或政治价值较低。除了这些问题之外,在获取和使用网络信息方面也普遍存在不平等现象(即所谓的“数字鸿沟”)。例如,较少的互联网接入导致“较少的政治、经济和社会机会”(Segev 2010,8),这也可以被视为一个偏见问题。尤班克斯(2018)的分析还表明,数字技术的使用与特定的文化有关,在这个案例中体现了美国文化中“对贫困的惩罚性和道德化的观念”。而在政府使用人工智能中实行,则助长了偏见的持续。
但人工智能中的不平等和不公正问题,除了在司法系统、警务和社会福利管理等国家机构之外,也会出现在数据科学的应用之中。例如,一家银行需要决定是否发放贷款:它可以通过算法来自动作出决定,算法会根据申请者的财务和就业历史以及邮政编码等信息和以往申请者的统计信息来计算金融风险。如果拥有特定的邮政编码与不偿还贷款之间存在统计相关性,那么居住在该地区的人可能不是根据对其个人风险的评估,而是根据算法发现的模式而被拒绝贷款。如果个人风险很低,这似乎是不公平的。此外,该算法可能会重现银行经理之前作出决定时的无意识偏见,例如对有色人种的偏见。针对自动信用评分的情况,本杰明(2019b,182)警告说,“‘评分社会’(the scored society)中,以某种方式被评分是不平等设计的一部分”;分数较低的人会受到惩罚。或者,举一个性别领域的(非标准)例子,根据性别与事故之间的相关性,算法决定年轻男性驾驶员的车祸风险更高,那么是否每个年轻男性驾驶员都必须支付更多的汽车保险,仅仅因为他是男性,即使特定个人的风险可能很低?有时,数据集也是不完整的。例如,一个人工智能程序是在缺乏足够多的女性数据的数据集上进行训练的,尤其是有色人种女性、残疾女性和工薪阶层女性。正如克里亚多·佩雷斯(2019)所言,这是一个令人震惊的偏见和性别不平等的案例。
即使是对我们大多数人来说非常普通的事情,比如使用基于人工智能的搜索引擎,也可能存在问题。诺布尔(2018)认为,谷歌等搜索引擎强化了种族主义和性别歧视,这应被视为“算法压迫”(algorithmic oppression),它源于人类作出的决定,并由企业控制。她声称,算法和分类系统“嵌入”并影响着社会关系,包括地方和全球的种族权力关系。她指出,企业从种族主义和性别歧视中赚钱,并提请人们注意非裔美国人在身份、不平等和不公正方面受到的影响。例如,谷歌的搜索算法曾将非裔美国人自动标记为“猿”,并将米歇尔·奥巴马(Michelle Obama)与“猿”一词联系在一起。诺布尔认为,这些案例不仅具有侮辱性和攻击性,还“展示了种族主义和性别歧视是如何成为技术架构和语言的一部分”。问题的关键并不在于程序员有意使用这种偏见编码。问题在于,他们(以及算法的使用者)假定算法和数据是中立的,而各种形式的偏见却可能存在于其中。诺布尔警告说,不要将技术过程视为是非语境化的(decontextualized)和非政治化的(apolitical),这种观点只符合一种个人在自由市场中作出自己选择的社会观念。
因此,问题不仅仅在于特定的人工智能算法在特定情况下存在偏见并产生特定后果(例如,通过记者施加政治影响,而记者也使用谷歌等搜索引擎;参见Puschmann 2018);主要问题在于,这些技术与社会中现有的等级结构以及助长这些结构的有问题的观念和意识形态相互作用,并为其提供支持。虽然用户没有意识到这一点,但这些技术却支持着特定的社会、政治和商业逻辑,并以特定的方式界定世界(Cotter and Reisdorf 2020)。就像线下分类系统反映了社会中最强大的话语一样(Noble 2018,140),人工智能可能因此导致思想边缘化以及对人的歧视和压迫。更有甚者:通过其范围和速度,它可以极大地放大这些现象。诺布尔指出,与其他数字技术一样,人工智能也“卷入”了争取“社会、政治和经济平等”的斗争中。社会不平等和不公正已经存在,有时还在加剧,而且有些话语比其他话语更有权力,拥有更多权力的人以特定的方式代表受压迫的人。
由于这种紧张关系和斗争,有关人工智能与偏见、歧视、种族主义、公平、公正、性别歧视、(不)平等、奴役、殖民主义、压迫等问题的公开辩论,往往会在特定背景下(如美国有关种族主义的辩论)引发或很快成为高度两极分化的意识形态辩论。此外,尽管计算机科学家和科技公司一直专注于偏见和公正的技术定义,这是必要的,但不足以解决所有的社会技术问题(Stark,Greene,and Hoffmann 2021,260–261)。如前所述,诺布尔、尤班克斯和本杰明等研究人员已经正确地指出了更大范围的偏见和歧视问题。
然而,作为哲学家,我们必须问一问,在这些关于人工智能偏见的公开讨论、技术实践和通俗读物中使用的规范性概念意味着什么?例如,我们必须问一问公正或平等的含义是什么?因为这决定了对涉及人工智能案例的问题的回答。在某一特定案例中,是否有什么地方错了?如果错了,那到底 为什么 错了,我们能做什么,应该做什么, 目标 是什么?为了证明我们的观点是正确的,解释有效的论据,并更好地讨论有偏见的人工智能,我们(不仅是哲学家,还有公民、技术开发者、政治家等)必须对概念和论据进行研究。本章表明,特别是政治哲学中的一些概念和讨论,可以为此提供很大的帮助。
首先,我将概述英语世界的情况。本章将从关于平等与公正的政治哲学讨论中,揭示人工智能产生的偏见与歧视可能存在的问题。我会问,这里涉及的是什么样的平等与公正,以及我们想要什么样的平等与公正。我希望读者思考平等与公正的不同概念。然后,我将转向对这些问题的自由主义哲学的两种批评。马克思主义者和身份政治的支持者主张从个人主义、普遍主义和形式化的抽象思维转向基于阶级、群体或身份的思维(如关于种族和性别的思维)。他们还更加关注具体生活中的歧视现象。在这两种情况下,我的目的并不是概述政治哲学讨论本身,而是说明这对于思考人工智能和机器人技术中的偏见和歧视问题意味着什么。