谁来决定人工智能?参与自由、选举中的人工智能和言论自由
自由的另一个含义是 政治参与 。同样,这一思想有着古老的渊源,具体地说是源自亚里士多德。正如阿伦特在《人的境况》( The Human Condition )(1958)一书中所解释的,古人的自由不是选择自由的自由,而是政治行动的自由,她将其与“积极生活”(vita activa)(劳动和工作)中的其他活动区分开来。根据哲学共和主义,一个人只有通过政治参与才能行使自由。虽然对古希腊人来说,这种自由只属于精英阶层,而且事实上是建立在对那些劳动人民的奴役之上的,因此他们剥夺了劳动人民的政治自由。但政治参与自由这一理念在现代政治哲学史上具有重要意义,并启发了人们对民主的一些重要解释和理想(见第四章)。正如我在本章前文中所述,政治参与自由这一理念的一个著名的当代表述来自卢梭,他早在康德(Kant)之前就认为,自由意味着给自己制定规则。这种自我统治可以被解释为个人自主(见上文关于“助推”的部分),但卢梭也赋予了自我统治以政治含义:如果公民自己制定规则,他们就是真正的自由,而不是受制于他人的暴政。无论卢梭对“公意”的进一步思考如何引起争议,政治参与是而且应该是自由民主的一部分这一观点却已深入人心,并影响着我们今天许多人对民主的看法。
作为自我参与的自由观念对于人工智能和机器人的自由问题意味着什么?根据这一观念,我们可以就人工智能和机器人技术的政治问题提出一些规范性论点。
首先,关于技术及其使用的决定往往不是由公民作出的,而是由政府和企业作出的,包括政治家、管理者、投资者和技术开发者。人工智能和机器人技术也是如此,它们往往是在军事背景(政府资助)和科技公司中开发出来的。基于政治参与自由的理想,人们可以对此提出批评,并要求公民参与有关人工智能和机器人的公共讨论和政治决策。虽然人们也可以根据民主原则提出这一论点,但从哲学共和主义的角度来看,这可以在自由的基础上得到合理解释:如果自由意味着政治参与和政治自治,那么目前公民对技术的使用和未来几乎没有或根本没有影响力的状况,实际上使他们处于不自由和专制的状态。公民在这些决策方面缺乏自治。以参与自由的名义,人们应该要求对我们的技术未来作出更加民主的决策。
此外,除了要求改变通常的政治制度外,人们还可以要求创新过程本身应考虑作为利益相关者的公民及其价值观。过去的十年间,人们一直在争论负责任的创新和对价值敏感的设计(Stilgoe,Owen,and Macnaghten 2013;van den Hoven 2013;von Schomberg 2011):其理念是将社会参与者纳入创新过程,并在设计阶段考虑伦理价值。但这不仅是一个道德责任问题:基于自由即参与的理想,我们也可以将其视为一种政治要求。自由不仅是指我作为技术用户或消费者的选择自由——将我使用的技术视为既定事实,还包括我参与有关我所使用的技术的决策和创新过程的自由。行使这种自由尤为重要,因为正如技术哲学家们不断强调的那样,技术会产生意想不到的影响,并塑造我们的生活、社会和我们自己。如果说作为自治的自由是一项重要的政治原则,那么对于人工智能等技术而言,重要的不仅是我作为用户和消费者在使用技术方面获得个人自主权(和责任),而且我作为公民在有关技术的决策方面也要拥有发言权和政治责任。如果缺乏这种参与自由,那么人工智能和机器人技术的未来——也是 我的 未来——仍然掌握在技术官僚政客和专制的首席执行官、所有者和投资者手中。
其次,即使作为政治的参与者,我们也有可能受到人工智能的操纵。人工智能在竞选活动和整个政治生活中发挥着越来越大的作用。例如,有证据表明,唐纳德·特朗普(Donald Trump)在2016年的总统竞选中,人工智能被用来操纵公民(Detrow 2018):数据科学公司剑桥分析(Cambridge Analytica)根据对选民心理的分析,利用他们在社交媒体上的行为、消费模式和人际关系等数据,针对个别选民精准投放广告。而脸书和推特(Twitter)等社交媒体上的机器人伪装成人类账号,可以用来向特定人群传播错误信息和假新闻(Polonski 2017)。这不仅是民主的问题(见第四章),也是自由的问题。它涉及对自主意义上的自由的威胁和监控问题,同时也影响到政治参与自由。
但是,操纵问题不仅是指狭义的政治操纵,即在通常情况下在政治环境中出于政治目的的操纵。当我们在工作和家庭中无处不在地使用智能设备时,我们正越来越多地在智能环境中工作,在这种环境中,自动智能体建构了我们的选择环境。希尔德布兰德(Hildebrandt 2015)认为,这与支配我们心率的自主神经系统类似:与自主神经系统调节我们的内部环境(我们的身体)类似,自主计算机系统现在可以调节我们的外部环境,“以便做它认为对我们自身福祉必要或可取的事情”。而这一切都发生在我们意识不到的情况下,就像我们无法知道我们的生命机能究竟是如何被控制的一样。这对自主意义上的自由和整个社会来说都是一个问题,因为“社会环境不再是通过人与人之间相互期望而形成,而是完全由数据驱动的操纵目标来驱使”(Couldry and Mejias 2019,182)。但这也促使我们思考我们想要和需要什么样的政治参与。从技术逻辑上讲,我们如何才能(重新)获得对发生在我们身上和我们所处环境的更多控制权?我们如何才能获得哲学共和主义和启蒙思想所提出的自我统治?
在第四章中,我将进一步论述参与式民主,但关于自由,我们可以说,政治参与自由的一个条件是教育。卢梭不会为我们这种政治参与与教育脱钩的政治制度辩护;相反,他像柏拉图一样提出了公民的道德教育。对卢梭来说,这是我们实现政治参与自由理想的唯一途径。如果认为公民唯一需要做的事情就是每隔四五年投一次票,而在其余时间里,他们只能随心所欲地在社交媒体中寻找自我,那么他会对此表示反对。他和其他启蒙思想家也会对以下观点感到震惊,即在公共行政“以客户为导向”(Eriksson 2012,691)的“自助政府”和电子政务中,公民是一种消费者,甚至是“公共服务”的共同生产者——尽管后者肯定是参与式的,并赋予公民更积极的角色。相反,卢梭与柏拉图一样,认为教育应使人们少一些利己主义,多一些同情心,少一些对他人的依赖,从而获得道德尊严和尊重,正如登特(Dent 2005,150)所说,“在相互关系中充分展现人性”。这种道德和政治教育将引导公民服从公意,即他们将“做一个有道德的人想做的事”。这种政治自由的理想是建立在教育基础上的道德自由,它受到了由操纵和错误信息主导的公共领域的威胁,而人工智能在创建和维护这样一个领域中发挥了作用。
这就引出了这一领域中另一个与自由相关的重要问题:社交媒体是否应该受到更严格的监管或自我监管?为了创造更高质量的公共讨论和政治参与,是否应该以牺牲一些消极自由为代价?或者说,被理解为“想说什么就说什么”的意见自由和 言论自由 形式的消极自由,比作为政治参与和政治行动的自由更重要?传播错误信息和仇恨到底算不算一种政治参与和政治行动?这是否可以被接受,因为它尊重了消极自由(言论自由);还是说其与自由背道而驰,因为它可能导致极权主义(因而缺乏消极自由)以及政治自由的堕落?根据亚里士多德和卢梭的观点,我们可以支持后一种观点,批评自由主义观点(或至少是他们对自由主义的解释)。我们认为言论自由并不包括发表旨在破坏民主的言论自由,公民应该接受教育成为更有道德的人,并以实现其人性的方式参与政治。由此,第一个论点作为限制言论自由的理由在我们当前的民主政体中已经非常成熟,而第二个论点——公民的道德教育和政治参与——则更具争议性。这需要对以人工智能和其他数字技术为媒介的公共领域进行监管,同时对教育和政治机构进行实质性改革。
对言论自由的限制可以由人类施加,也可以由人工智能施加。推特等数字社交媒体平台,甚至传统媒体(如报纸的在线论坛)都已将人工智能用于所谓的“内容审查”(content moderation),即自动检测可能有问题的内容并自动删除或降级这些内容。这可以用于阻止那些被视为有问题的观点或删除那些用来对受众进行政治操纵的错误信息和假新闻(如文字或视频的形式)。针对这种人工智能的使用,人们可能会问,这种评价的准确性如何(与人类评价相比),以及人类评价是否正确。还有人担心,如果缺少了人类的判断,就会放任人工智能用于传播错误信息,而编辑决策的自动化也会引发问责问题(Helberg et al.2019)。
但究竟缺少了什么呢?这个问题涉及关于人类判断与人工智能“判断”的大讨论,我们现在可以通过对 政治 判断的讨论来探讨这个问题。例如,阿伦特[对康德美学理论(interpreting Kant's aesthetic theory)的诠释]认为,政治判断与“ 共通感 ”(sensus communis)或常识(common sense)有关,与拥有一个共同的世界(共享一个世界)有关,也与运用想象力去理解他人的立场有关。她还提到亚里士多德的phronesis通常被理解为 实践智慧 (practical wisdom)。这一概念在美德伦理学中广为人知,其关注人的道德品质和习惯,并被用于对机器人技术的思考(例如,Coeckelbergh 2021;Sparrow 2021),但在阿伦特的著作中,这一概念也发挥着政治作用。她认为,政治判断需要深思熟虑和想象力。或许政治判断也包含情感因素,正如受阿伦特影响的阿维茨兰(Aavitsland 2019)所论证的——这一观点触及了关于理性和情感在政治中的作用的长期讨论。试想,人工智能缺乏意识,也不属于任何意义上的“世界”,不具备任何主体性,更不用说主体间性、想象力、情感等,那么它怎么可能获得这种政治判断能力呢?另外,人类的政治判断能力有多强?很显然,他们往往无法行使这种常识、政治想象力和判断力,除了维护私人利益之外,就裹足不前了。此外,与阿伦特相反,那些持有理性主义和自然主义判断观念的人可能会认为,人工智能可以比人类做得 更好 ,可以提供更加“客观”的判断,不受情感和偏见的影响。一些超人类主义者讨论了这种人工智能从人类手中接管权力的情景,认为这将是智能发展史上的下一步。但是,客观或无偏见的判断到底有没有可能?毕竟,人工智能有时也会有偏见——如果不总是这样的话。我将在下一章再讨论这个问题。当然,和人类一样,人工智能也会犯错:我们是否愿意接受这一点,无论在政治领域,还是在医疗领域(如诊断、疫苗接种决定)或在道路上(如自动驾驶汽车)?无论如何,在某些情况下,人工智能可以通过显示数据中的模式以及根据概率计算提供建议和预测来帮助 人类 作出判断,这是一回事;而声称人工智能的所作所为构成了判断,则是另一回事。
然而,就本章的主题而言,这里要讨论的主要问题与自由有关:人工智能对内容的审查是否构成对言论自由的损害,以及这种做法是否合理?对此有许多警告。兰索(Llansó 2020)认为,“无论机器学习如何进步,过滤内容都是对表达自由的威胁”,因此也是对人权的威胁。例如,一些人权倡导者呼吁关注人工智能的影响,在联合国层面,一位言论自由问题特别报告员运用人权法,评估了那些对数字平台上内容进行控制和管理的人工智能对言论自由的影响(UN 2018)。该报告与《世界人权宣言》第19条相联系。除了借鉴狭义表达自由的言论自由原则外,人们还可以认为,人们有知情权和讨论权。例如,联合国教科文组织(UNESCO)声称要促进“通过文字和图像自由交流思想”(MacKinnon et al.2014,7)。
在自由民主社会中,自由讨论和思想交流尤为重要。人们可以运用政治哲学与密尔提出相同的观点,即剥夺言论自由有可能扼杀思想辩论。在《论自由》( On Liberty )中,密尔为自由表达意见辩护的理由是,如果不这样做,我们就会陷入“思想绥靖”(intellectual pacification),而不是敢于将论点推向其逻辑极限的思想。然而,在密尔看来,意见自由并不是绝对的,从这个意义上说,应该防止人们对他人造成伤害(著名的伤害原则)。在英语国家的自由主义传统中,这通常被解释为对个人权利的伤害。在密尔看来,这就是不伤害其他个人,最终实现个人幸福的最大化。然而,在哲学共和主义的传统中,问题的关键并不在于会对个人造成伤害。问题在于,仇恨言论、操纵和误导会危及政治参与和政治自我实现的自由、人的道德尊严和共同利益。因此,所造成的伤害是对政治本身造成的可能性的伤害。这种哲学共和主义似乎至少在一个面向上与密尔的论证相吻合:言论自由的意义不在于表达本身,而在于政治 论证 和 思想 辩论。 这 才是应该受到尊重的自由。如果我们允许言论自由,我们实质是在尊重人的尊严,并且(我们可以从共和主义的角度补充)促进讨论,从而实现共同利益和进一步实现人性。
密尔认为,讨论将形成真理。他认为,为了通过辩论找到真理,言论自由是必要的。真理是宝贵的,人们可能是错的,每个人都会犯错。思想的自由市场会增加真相浮出水面的机会,教条式的信仰有可能受到挑战(Warburton 2009)。然而,操纵、误导和反民主宣传并不能实现这些目标。它们既不会带来良好的政治辩论(密尔所认为的我们想要的那种政治参与),也不会支持自由主义的启蒙运动和共和主义的道德与政治进步的目标。如果人工智能的使用会导致公共领域变得很难实现这些目标,那么人工智能要么就不应该在这一领域使用,要么应该以支持而不是破坏这些政治理想的方式加以规范。
但是,如果要进行这样的监管,仍然很难明确规定由谁来监管谁,以及需要制定哪些保障自由的措施。关于社交媒体的作用有很多讨论。一方面,以脸书和推特等公司为代表的大型科技公司决定对谁进行审查以及何时审查,这可能被视为不民主;更广泛地说,人们质疑它们为何拥有如此大的权力。例如,人们可能会问,既然这些平台、基础设施和出版商在当今民主社会中发挥着重要作用,为什么还要掌握在私人手中?由于它们主导了媒体格局,压倒了公共广播服务(最初是为了通过教育支持民主而设立的)和传统媒体,它们已经扮演了重要的政治角色。从这个角度看,监管是最起码可以做的事情。另一方面,如果政府扮演审查者的角色,这是否合理?它应该使用什么确切的标准?民主政府通常会对言论自由施加限制,但作为哲学家,我们必须质疑这一角色的合法性和所使用的标准。如果政府被一个反民主政权接管了呢?如果我们现在任由言论自由受到侵蚀,这将使专制政权更容易摧毁民主。
还要注意的是,报纸和电视等传统媒体,至少或多或少是具有独立性的高品质媒体,都已经不得不在言论自由与审查之间寻求平衡,以便促成良好的讨论。然而,无论是推特这样的私营社交媒体公司,还是传统的老牌报纸,这种节制和审查的 目的 、 原因 、 方式 和 对象 都不完全透明:我们往往不知道哪些声音没有被听到,这一决定的理由是什么(如果有的话),遵循什么程序(如果有的话),以及谁是版主和审查员。此外,我们还看到,如今国家新闻媒体也像脸书和推特一样,越来越多地使用自动内容审查功能。这就引发了类似的言论自由问题以及公平问题。尽管今天大多数人似乎认为不存在绝对的言论自由,并 在事实上 接受一些审查,但在自由以及其他价值观和原则方面仍然存在严重问题。
例如,当代批判理论批评了古典自由主义哲学将言论自由与作为免受干涉的消极自由联系起来的做法,认为这种做法忽视了结构性不平等、权力、种族主义和资本主义(另见第三章)。蒂特利(Titley 2020)分析了极右翼政治如何操弄言论自由传播种族主义思想,以及肤浅的言论自由观念如何忽视了不同发言者之间的结构性不平等。除了假新闻现象,这也有助于解释为什么在美国当前的政治背景下,许多自由主义者要求脸书和推特等公司对仇恨言论、种族主义思想和错误信息等言论实施更多的监管和限制,并认为对言论自由的呼吁 先验地 存在问题。对此,有人可能会说,言论自由原则本身并没有问题。但这些问题表明,我们需要一种不同的、更加丰富的言论自由观念,尤其是在数字通信时代:一种更具包容性的、促进真理的、多元主义的和批判性的观念,并将当代政治思想的经验教训纳入考量,同时仍保留密尔某些方面的观点,如自由思想辩论的信念。然后,我们需要进一步讨论在自动化新闻、人工智能审查和假新闻(包括假视频和人工智能的其他生成物)时代,言论自由意味着什么。