人工智能与人类行为的操纵:规避人类的自主性
但是,如果这些问题涉及消极自由,那么什么是积极自由呢?积极自由有多种定义方法,但伯林定义的一个核心含义与自主或自治(autonomy or self-governance)有关。这里的问题是,你的选择是否真的是你的选择,而不是别人的选择。伯林(1997)写道:
“自由”这个词的“积极”意义源于个人想要成为自己的主人的愿望。我希望我的生活和决定取决于我自己,而不是任何形式的外部力量。……最重要的是,我希望意识到自己是一个有思想、有意志、积极主动的存在,对自己的选择负责,并能够根据我自己的想法和目的来解释自己的选择。
这种自由不是与监禁或阻碍意义上的干涉形成对比,而是与家长制形成对比:由别人来决定什么是对你最好的。伯林认为,专制统治者区分了高阶的自我(a higher self)和低阶的自我(a lower self),声称知道你的高阶自我真正想要什么,然后以那个高阶自我的名义压迫人民。这种自由并不存在外在限制或身体上的规训,它其实是对你的欲望和选择心理的干涉。
这与人工智能有什么关系呢?要理解这一点,不妨考虑一下“助推”(nudging)的可能性:改变选择环境,从而改变人们的行为。助推的概念利用了人类决策心理,尤其是人类决策中的偏差。塞勒(Thaler)和桑斯坦(Sunstein)(2009)提出了助推的方案以解决以下问题:不能相信人们会做出理性决定,相反其往往利用启发式和偏见来做出决定。他们认为,我们应该通过改变人们的选择环境,从而影响人们的决策,使其朝着预期的方向发展。与其强迫人们,不如改变他们的“选择架构”(choice architecture)。例如,我们不禁止人们购买垃圾食品,但是会在超市的显眼位置摆放水果。因此,这种干预是在潜意识中进行的;它针对的是我们与蜥蜴都具备的那部分大脑构造。现在,人工智能可以而且已经被用于这种助推了。例如,亚马逊(Amazon)会向我推荐它认为我应该购买的产品。同样,当声破天(Spotify)推荐特定音乐时,它似乎比我更了解我自己。这些推荐系统并不限制我对书籍或音乐的选择,而是根据算法建议的方向影响我的购买、阅读和收听行为,因此具有推波助澜的作用。政府也可以使用或鼓励同样的技术,例如引导人们的行为向更环保的方向发展。
这类干预措施不会剥夺人们的选择自由或行动自由,并不存在任何强迫。这就是为什么塞勒和桑斯坦将助推称为一种“自由主义的家长制”(libertarian paternalism)。它不违背人们的意愿。因此,它不同于德沃金(Dworkin 2020)所定义的典型的家长制:“国家或个人违背他人意愿,以被干涉者将获得更好的生活或免受伤害的主张作为理由或进行辩护,从而对他人进行干涉。”典型的家长制显然侵犯了消极自由,而助推则引导人们作出符合其最佳利益的选择,而不会像德沃金所描述的那样限制他们的自由。或者用伯林的术语来说:助推并不违反消极自由,因为其不存在外部限制。例如,政府想要促进公民的公共健康,可以要求烟草生产商在香烟包装上标明“吸烟有害健康”的警告,或者要求超市在收银台等醒目位置撤下香烟。这项政策并不禁止香烟,而是要求生产商和零售商采取助推措施,以影响人们的选择。与此类似,人工智能驱动的推荐系统不会强迫你购买特定的书籍或收听特定的音乐,但可以影响你的行为。
然而,尽管这并不威胁消极自由,因为没有人被迫去做什么或决定什么,但人工智能的助推却对积极自由构成了威胁。人工智能通过利用人们的潜意识心理来操纵他们,毫不尊重他们作为一个希望设定自己目标并做出自己选择的理性人。广告和宣传等潜意识操纵形式并不新鲜。但助推自诩是自由主义的,其在人工智能的加速作用下,很可能会产生无处不在的影响。助推可以由企业进行,也可以由国家进行,例如为了实现一个更好的社会。但是,与伯林(1997)的观点一样,人们可以认为,以社会改革的名义侵犯积极自由是有辱人格的:“操纵人们,推动他们实现你(社会改革者)看到而他们可能看不到的目标,这是否定他们作为人的本质,把他们当作没有自己意志的客体,从而贬低了他们。”伯林认为,家长制是“对我作为一个人的侮辱”,因为它没有尊重我作为一个自主的人,我希望做出自己的选择、安排自己的生活。这一指控似乎也适用于所谓的“自由主义”家长制的助推,在这种情况下,人们甚至意识不到自己的选择受到了影响,比如在超市里购买商品时。
这就使得通过人工智能进行的助推至少是非常可疑的,而且——就像所有侵犯消极自由的行为一样—— 初步看起来 就是不合理的(除非另有证明)。如果有人仍想以这种方式使用人工智能技术,他就必须提出比积极自由更重要的原则和利益。例如,我们可以说,一个人的健康和生命比尊重其自主权更重要,或者说,人类和其他物种的存续比那些不了解自己对气候的影响或不愿为解决这一问题贡献力量的人的积极自由更为重要。尽管人们认为对积极自由的侵犯可能比对消极自由的侵犯争议要小,但重要的是要理解这里的利害关系和风险:为了人们自身利益或社会利益把人当作操纵的对象(如抑制肥胖),无视他们自主选择和理性决策的能力,把他们当作达到目的(如达到气候目标)的手段,而这些目的是其他人(如政府、绿色改革者)独立于他们所设想的。目的(如良好的目标)何时以及为何能证明手段的合理性,如果有的话,如何证明这种贬低的合理性?谁来决定目标?
把人理解为主要或根本上是非理性的,且不容讨论,这也是一种对人性和社会非常悲观的看法,这与霍布斯(Hobbes)的政治哲学一脉相承。霍布斯(1996)的《利维坦》( Leviathan )写于17世纪中叶的英国,他认为自然状态是一种只存在竞争和暴力的恶劣状态。他认为,为了避免这种情况,需要一个政治权威——利维坦——来维持秩序。同样,自由主义家长制对于人们建立一个有利于自己和社会的社会秩序的能力持悲观态度。这种社会秩序必须通过操纵手段自上而下地强加于人,例如使用人工智能。其他政治哲学家,如18世纪的卢梭、20世纪的杜威和哈贝马斯,则对人性持更为乐观的看法,他们相信民主政治的形式,认为人们能够自愿地致力于共同利益,理性地进行讨论,并通过争论达成共识。根据这种观点,人既不应该被控制(限制消极自由、专制主义),也不应该被操纵(限制积极自由、家长制);他们完全有能力克制自己,理性思考,超越自身利益,相互讨论什么对社会有益。这种观点认为,社会不是原子化个人的集合,而是以实现共同利益为目标的公民共和国。与其他捍卫哲学 共和主义 (philosophical republicanism)的人一样,卢梭(1997)回顾了古希腊城邦,认为共同利益可以通过积极的公民意识和参与来实现,公民应服从“公意”(general will),形成一个平等的共同体。卢梭认为人应该 被迫自由 (forced to be free),即被迫“在听从[自己的]欲望之前,先要请教[自己的]理性”并服从公意,虽然这是一个臭名昭著(notorious)的观点,但他反对专制主义,总体而言他对人性的看法是乐观的:自然状态是好的并且早已具有社会性了。他还同意柏拉图(Plato)和亚里士多德(Aristotle)等古代哲学家的观点,即在个人层面上,通过运用理性和克制激情,自主意义上的自由是可以实现的,也是可取的(我们也可以在德性伦理学中找到这种观点)。根据这种理想,人工智能可以发挥什么作用,这仍然是一个悬而未决的问题。在第四章中,我将进一步概述关于民主的可能性和相关理想的不同观点,而在关于权力的第五章中,我将进一步阐述人工智能和自我建构。