人工智能、监控和执法:剥夺消极自由
正如我们在导论中所看到的,人工智能可用于执法。它还可以用于边境警务和机场安全。在世界各地,机场和其他边境口岸都在使用人脸识别技术和其他生物识别技术,如指纹和虹膜扫描。除了可能产生偏见和歧视(见下一章)以及对隐私的威胁(UNCRI and INTERPOL 2019)之外,其还可能导致各种侵犯个人 自由 的干预措施,包括逮捕和监禁。如果人工智能技术出现错误(比如对一个人作了错误归类、无法识别一张脸),个人可能会被错误逮捕、被拒绝庇护、被公开指控等等。一个“小”的误差可能会影响成千上万的旅客(Israel 2020)。同样,利用机器学习“预测”犯罪的所谓“ 预测性警务 ”(predictive policing),除了(再次)歧视之外,还可能导致不公正的剥夺自由的司法判决。更广泛地说,它可能会导致“卡夫卡式”的情形:不透明的决策过程和恣意、不公正的和无法解释的决定,严重影响被告的生活并威胁法治(Radavoi 2020,111–113;另见Hildebrandt 2015)。
这里受到威胁的自由就是政治哲学家所说的“消极自由”。伯林(Berlin)曾给消极自由下过一个著名的定义,即不受干涉的自由。它涉及的问题是:“在什么范围内,主体——一个人或一群人——可以或应该不受他人干涉地做她能够做的事或成为她能够成为的人?”(Berlin 1997,194)。因此,消极自由是不受他人或国家的干涉、胁迫或阻碍。当人工智能被用来识别那些构成安全风险的人、被认为无权获得移民或庇护的人或者犯有罪行的人时,这种自由就受到了威胁。受到威胁的自由是不受干涉的自由。
鉴于监控技术的发展,我们可以将这一自由观念扩展为不受干扰的 风险 的自由。当人工智能技术被用于监控从而使人们处于奴役或剥削状态时,这种消极自由就岌岌可危。技术制造了无形的锁链和不间断监视的非人之眼。摄像头或机器人始终在那里。正如人们经常观察到的那样,这种状态类似于边沁(Bentham)以及后来的福柯所说的“全景敞视监狱”(Panopticon):囚犯被监视着,但他们看不到监视者(另见第五章“权力”)。像早期的监禁或奴役形式那样的人身限制或直接监督已不再必要,只要有技术在那里监控人们就足够了。从技术上讲,它甚至不需要真正发挥作用。与测速摄像头相比:无论它是否真正发挥作用,它都已经影响——特别是 规训 ——了人们的行为。而这正是摄像头特有设计的一部分。知道自己一直被监视着或者可能一直被监视着,就足以规训自己的行为了。只要有被干扰的风险就足以让人产生消极自由会被剥夺的恐惧。这可以用在监狱和集中营,也可以用在工作环境以监控员工的表现。监控通常是隐藏的。我们看不到算法、数据以及使用这些数据的人。布鲁姆(Bloom 2019)将这种具有隐藏性的权力称为“虚拟权力”(virtual power)是有些误导的。事实上权力是真实存在的。
人工智能监控不仅用于执法和政府管理、企业环境以及其他工作场所中,也被用于私人领域。例如,在社交媒体上不仅存在“纵向”监控(来自国家和社交媒体公司),还存在同伴监控或“横向”监控:社交媒体用户在算法的促成下相互监视。还有一种 逆向监视 (sousveillance)(Mann,Nolan,and Wellman 2002):人们使用便携式设备记录正在发生的事情。可以列出各种各样的原因来说明这是有问题的,但其中一个原因是它威胁到了自由。这里的“自由”指的是拥有隐私的消极自由,即个人领域不受干涉的自由。隐私权通常被视为自由社会中的基本权利。但是在一个鼓吹共享文化的社会中,这可能会面临危险。正如贝利斯(Véliz 2020)所说:“自由主义要求,除了保护个人和培养健康的集体生活所必需的东西之外,没有任何其他事物应受到公众的监督。曝光文化要求一切都要与公众分享并接受公众监督。”因此,完全透明威胁着自由社会,而大型科技公司在其中扮演着重要角色。通过社交媒体,我们自愿创建了关于自己的数字档案,其中包含我们自愿分享的各种个人详细信息,没有任何政府“老大哥”(Big Brother)强迫我们提供这些信息,其也没有费尽周折以隐蔽的方式获取这些信息。相反,科技公司却公开地、无耻地获取数据。像脸书(Facebook)这样的平台是专制政权的梦想,但也是资本家的梦想。人们创建档案并跟踪 自己 ,例如出于社交目的(会议),也包括健康监测。
此外,这些信息还可以并已经被用于执法。例如,美国警方根据对一名妇女的Fitbit设备(一种活动和健康追踪器)数据的分析,指控她谎报强奸(Kleeman 2015)。Fitbit数据还被用于一起美国谋杀案(BBC 2018)。来自社交网站和手机的数据可用于预测性警务,这可能会对个人自由造成影响。然而,即便不受干涉的自由没有受到威胁,问题也仍然存在于社会层面,并影响着不同类型的自由,例如自主意义上的自由(见下一节)。正如沙勒夫(Solove 2004)所说:“这是一个牵涉我们正在形成的社会类型、我们的思维方式、我们在更大社会秩序中的位置,以及我们对自己生活进行有意义控制的能力的问题。”
话虽如此,但是当涉及技术对消极自由的威胁时,问题可能会变得非常实际。机器人可以用来对人们进行人身限制,例如出于安全或执法目的,也可以是为了“人们自身利益”和安全考虑。试想一下,当一个幼儿或有认知障碍的老人在没有人看管的情况下冒险横穿一条危险的马路,或有从窗户坠落的危险:在这类案例中,可以使用机器来限制这个人,例如阻止他离开房间或离开家。这是一种家长式管理(paternalism)(下一节将详细介绍),它通过监视手段限制个人的消极自由,然后再以物理形式进行干预。夏基和夏基(Sharkey and Sharkey 2012)甚至认为,使用机器人限制老年人的活动是“走向专制机器人的滑坡”。这种通过人工智能和机器人技术监控和限制人类的情景似乎比遥远的、科幻小说中的超级人工智能接管权力的情景更加现实——后者也可能导致自由的剥夺。
任何人利用人工智能或机器人技术来限制人们的消极自由,都必须证明为什么有必要侵犯如此基本的自由。正如密尔(Mill 1963)在19世纪中叶提出的观点,在涉及强制时,举证责任应该由那些主张限制或禁止的人来承担,而不是那些捍卫其消极自由的人。在侵犯隐私、执法或家长式限制行动的情况下,限制者有责任证明存在相当大的伤害风险(密尔),或者存在比自由更重要的其他原则(如公正)——无论是在一般情况下还是特定情况下。而当技术出错(如导论中提到的错误匹配的案例)或技术本身造成伤害时,证明这种使用和干预的合理性就变得更加困难了。例如,人脸识别可能导致不合理的逮捕和监禁,或者机器人在限制他人时可能会造成伤害。此外,除了功利主义和更普遍的结果主义框架之外,我们还可以从义务论的角度强调自由权,例如国家和国际宣言中规定的自由权。
然而,考虑到这些技术产生(非预期的)有害影响的案例,显然除了自由之外还存在着更多的危险。自由与其他政治原则和价值之间存在着紧张与权衡。消极自由非常重要,但可能其他政治和道德原则也非常重要,而且他们(应该)在特定案例中发挥作用。我们并不总是清楚哪项原则应当优先。例如,为了防止某种特定的伤害(如从窗户坠落)而限制一个小孩的消极自由是合理的,这一点可能非常清楚,但对于一个患有痴呆症的老年人或者被认为是“非法”居住在某个国家的人来说,这种对自由的限制是否合理就不那么清楚了。为了保护其他人的消极自由和其他政治权利而限制一个人的消极自由(例如通过监禁的方式)是否合理呢?
应用密尔的伤害原则(harm principle)也是出了名的困难。在一个特定的案例中,究竟什么构成伤害,谁来界定对谁造成了哪种伤害,谁的伤害更重要?到底什么才算对消极自由的限制?例如,考虑一下在新冠疫情大流行期间,在特定场所戴口罩的义务引发了关于这些问题的争议:谁需要更多保护以免受伤害(风险),戴口罩剥夺了消极自由吗?这些问题也与人工智能的使用相关。例如,即使某项人工智能技术在工作中不会出错,但机场安检程序中的扫描和人脸识别本身是否侵犯了我不受干涉的自由?用手搜查是否也是一种侵犯,如果是,是否比扫描器的侵犯更大?人脸识别错误本身是否构成伤害,还是取决于安保人员的潜在伤害行为?如果所有这一切都以恐怖主义风险为理由,那么这种小概率(但影响大)的风险,是否就能证成当我跨越边境时有理由采取干涉我的消极自由的措施,就能证成我遭受技术带来的新风险,包括由于技术错误而剥夺我的消极自由的风险?


