导论
道德哲学的一个持久关切是:决定谁(who)或什么(what)值得接受伦理考量。虽然在一开始,伦理实践被局限在“其他男人”上,但在发展过程中,伦理实践持续挑战着它自身的局限并逐步涵盖了那些曾被排除在外的个体和团体——外邦人、女人、动物甚至环境。目前,我们正迎来另一个对道德思考的根本性挑战。这一挑战来自我们自己制造的自主的、智能的机器,它使许多关于谁或什么构成了道德主体的根深蒂固的假设受到了质疑。我们如何应对这一困难将会深远地影响我们如何理解我们自己,如何理解我们在世界中的位置以及如何理解我们对在这个世界上所遇到的其他存在者所负有的责任。
让我们以斯坦利·库布里克(Stanley Kubrick)的电影《2001太空漫游》( 2001:A Space Odyssey )(1968)为例。它很好地展示了自主机器决策的前景和危险。在这部科幻电影中,计算机HAL 9000为了确保完成探索木星的深空任务而试图结束宇宙飞船中人类船员的生命。针对这一行动,飞船中剩下来的人类通过关闭计算机HAL的高级认知功能终止了它。这实际上相当于杀死了这台人工智能机器。这段情节显然服务于扣人心弦的电影剧情,但它也展示了一系列有趣且重要的哲学问题:我们要让机器为那些影响人类的行动承担责任吗?人工智能系统、计算机或机器人的自主决策应该受到哪些限制的规范(假定我们需要一些这样的限制的话)?是否有可能设计出这种能正确理解对与错的机器?这些机器对我们负有什么样的道德责任,而我们又对这些拥有伦理心智的机器负有什么样的道德责任呢?
虽然这些问题最初出现在科幻作品中,但它们正日益成为科学事实。人工智能(AI)、信息与通信技术(ICT)和机器人学领域的研究者们正在开始严肃地探讨伦理学。他们对当下所谓的“植入了伦理程序的机器(ethically programmed machine)”以及人工自主行动者的道德地位尤其感兴趣。比方说,在过去几年中,专题会议、研讨会和工作坊的数量有显著增长,它们的题目颇具煽动性,如:“机器伦理学(Machine Ethics)”“伦理的人工生命(EthicALife)”“人工智能、伦理学和(准)人权(AI, Ethics, and[Quasi]Human Rights)”“机器人伦理学(Roboethics)”;讨论这一话题的学术论文和学术书籍的数量也有显著增长,例如卢西亚诺·弗洛里迪(Luciano Floridi)的《信息伦理学》(Information Ethics)(1999),J.斯托斯·霍尔(J.Storrs Hall)《机器的伦理学》(Ethics for Machines)(2001),安德森等人(Anderson et al.)的《通向机器伦理学》(Toward Machine Ethics)(2004),以及温德尔·瓦拉赫(Wendell Wallach)和科林·艾伦(Colin Allen)的《道德机器》
(
Moral Machines
)(2009);甚至政府资助的项目也越来越多,例如韩国的机器人伦理学章程(见Lovgren 2007),旨在预测自主机器的潜在问题并预防人类对机器人的滥用;日本的经济产业省据称正在制定一套机器人的行为规范,特别是针对那些老人护理行业中所使用的机器人(见Christensen 2006)。
在道德思考的这一新发展走得太远之前,我们应该花时间问一些根本性的哲学问题。即,这类机械设备可能会有什么样的道德主张?这类主张的哲学依据是什么?阐明并实践这一主题的伦理学意味着什么?《机器问题》试图处理、评估和回应这些问题。这么做的目的是对道德哲学的现状和未来的可能性产生根本性的、变革性的影响,与其说是改变游戏的规则,不如说是质疑谁或什么有资格参与到游戏中来。
机器问题
如果说当代哲学中有一个“坏蛋”,我们有理由将这个称号授予勒内·笛卡尔(René Descartes)。这并不是因为笛卡尔是一个特别坏的人,也不是说他做了什么被认为在道德上可疑的行动。恰恰相反。笛卡尔之所以是“坏蛋”仅仅是因为他在他所开创的独特的现代哲学流派中将动物和机器联系起来,并引入了一个影响深远的概念——bête-machine或 动物-机器 ( animal-machine )的学说。利普特(Akira Mizuta Lippit)(2000,33)写道:“笛卡尔(他或许是最臭名昭著的二元论思想家)支持了哲学中人类世界和动物世界之间的决然割裂。在1637年的著作《谈谈方法》( Discourse on the Method )中,笛卡尔将动物比作机器,并主张‘野兽不仅仅是比人类有更少的理性,它们根本没有任何理性’。”对笛卡尔来说,人类是唯一能够进行理性思考的造物——只有人类这种存在者才能够说出“cogito ergo sum(我思故我在)”这句话并在说这句话的时候确定这句话为真。从这个论断出发,笛卡尔断定人类之外的其他动物不仅缺乏理性,而且只是没有心灵的自动装置。这些自动装置就像齿轮发条装置一样,只是在遵循一些事先被编入其各个部分与器官的配置中的指令。一旦以这种方式看待动物,动物和机器就不仅仅在实际上无法有效地被区分开来,而且两者在本体论上就是完全相同的。笛卡尔写道:“任何一台这样的机器,如果它拥有一只猴子或其他什么无理性的动物的器官和外形,我们根本没法知道它的本性和这些动物的本性有什么不同。”(Descartes 1988,44)于是,从笛卡尔开始,动物和机器分享同一种他异性(alterity),这种他异性使得它们完全不同于人类并和人类明显地区别开来。正如雅克·德里达(2008,75)所描述的,尽管笛卡尔遵循一种“颇为夸张的”怀疑方法,他“从来没有怀疑过动物只是机器”。
遵循笛卡尔的这一决定,动物在传统上并不被认为是道德关切的合法对象。既然动物注定是纯粹的机械装置,那么它们就只是被人类或多或少有效使用的工具,而人类通常是唯一重要的事物。例如,当康德(1985)将意志的理性规定包含在道德的定义中时,动物就直接地、绝对地被排除在外了,因为动物在定义上就不具有理性。理性的实践运用与动物无关。而当康德提及动物性( Tierheit )时,他只是将动物性当作一种陪衬,用以界定真正的人性的边界。正如德里达在《纸机器》( Paper Machine )的最后一篇文章中所指出的,西奥多·阿多诺将上述对康德的诠释更加推进了一步。他认为康德不仅将动物性从道德考量中排除出去,而且对所有与动物性相关的事物都持一种蔑视的态度:“他(阿多诺)尤其指责康德(尽管阿多诺在其他方面受惠于康德颇多)没有在他的尊严( Würde )概念与人的‘自律’中为人与动物之间的同情( Mitleid )留下任何位置。阿多诺认为,对于一个持有康德主义观点的人来说,没有什么事情比记起人与动物之间的相似性或亲缘性( die Erinnerung an die Tierähnlichkeit des Menschen )更加可憎( verhasster )了。康德主义者对人类的动物性只有憎恶之情。”(Derrida 2005,180)这种伦理歧视在分析哲学传统中也曾被广泛接受并得到支持。在汤姆·雷根看来,这一点可以直接在分析伦理学的开创性著作中得到印证。“分析哲学的主保圣人G.E.摩尔在1903年出版了他的经典作品《伦理学原理》。你可以读其中的每个字。你可以揣摩其言外之意。无论你怎么读怎么找,你都无法找到一丁点对‘动物问题’的关注。是的,你能看到摩尔谈论自然属性和非自然属性。你也能找到定义和分析。你还能找到开放问题论证(open-question argument)和孤立法(method of isolation)。但是有任何关于非人动物的只言片语吗?没有。在当时的各种分析流派中,道德哲学并不关心这些想法。”(Regan 1999,xii)
哲学学科直到最近才开始将动物看作道德考量的合法对象。雷根认为有一部著作构成了转折点:“1971年,三位牛津哲学家罗莎琳德·戈德洛维奇(Roslind Godlovitch)、斯坦利·戈德洛维奇(Stanley Godlovitch)和约翰·哈里斯(John Harris)出版了《动物、人和道德》( Animals, Men and Morals )一书。这部书标志着哲学家第一次合作写一本书来讨论非人动物的道德地位。”(Regan 1999,xi)雷根认为,这本书不仅引入了现在被称为“动物问题”的问题,而且还开创了一整个道德哲学的分支学科,在其中,动物被视为伦理研究的合法对象。目前,分析和欧陆各流派的哲学家都找到了关注动物的理由,并且,越来越多的研究致力于处理善待动物、动物权利和环境伦理等议题。
这一发展的引人注目之处在于:当这种非人类的他性(otherness)越来越被认可为合法的道德主体时,它的他者——机器,却明显仍然处于缺席与边缘化的状态。尽管研究动物问题的著作数量颇为可观,但关于机器问题的作品却少得可怜。实际上,雷根对摩尔的《伦理学原理》的批评稍作改动后就可以非常准确地应用到那些旨在处理动物问题的著作上:“你可以读其中的每个字。你可以揣摩其言外之意。但无论你怎么读怎么找,你都无法找到一丁点对‘机器问题’的关注。”尽管在笛卡尔之后,机器的命运曾与动物的命运紧密地联系在一起,但现如今这两者中只有一个具有了被纳入伦理考量的资格。J.斯托斯·霍尔(2001)指出:“我们从未考虑过我们对我们的机器负有‘道德’义务,也从未考虑过我们的机器对我们负有‘道德’义务。”所以,机器问题是动物问题的另一面。实际上,它追问的是在当代哲学近来对他者的关切与兴趣中仍然被排除在外的、被边缘化的另一个他者。
结构与进路
当我们把机器问题表述为一个和伦理相关的问题时,它就包含两个构成性部分。正如卢西亚诺·弗洛里迪和J.W.桑德斯(J.W.Sanders)(2004,349-350)所指出的:“道德情境通常包含了行动者与受动者。让我们将由道德
行动者
组成的类别A定义为由所有能在原则上有资格作为道德行动的来源的存在者所组成的类别,并将由道德受动者所组成的类别P定义为由所有能在原则上有资格作为道德行动的接受者的存在者所组成的类别。”根据弗洛里迪和桑德斯(2004,350)的分析,“A和P之间可能有五种逻辑关系”。在这五种逻辑关系中,三种关系被直接搁置一旁、不予考虑。这包括如下三种情况:A和P互不相交,完全无关;P是A的子集;A和P相交。第一种表述之所以不予严肃考虑,是因为它被认定为是“完全不现实的”。而后两种之所以被搁置一旁,主要是因为它们要求一个“纯粹的行动者”——“某种超自然的存在者。就像亚里士多德的神一样,它影响世界但却永远不会被世界所影响”(Floridi and Sanders 2004,377)。
弗洛里迪和桑德斯(2004,377)总结道:“毫不奇怪,大多数宏观伦理学都远离了这些超自然的思辨,并暗地里接受,甚至明确论证其余两种选项中的一种。”
选项(1)认为所有有资格作为道德行动者的存在者都有资格作为道德受动者,反之亦然。这不仅符合一个相当直观的立场,即,行动者/询问者是道德的主角,而且这也是伦理学史上最流行的观点之一(例如,许多基督教伦理学家,特别是康德,都持有这一观点)。选项(2)认为所有有资格作为道德行动者的存在者都有资格作为道德受动者,但反之并不成立。很多存在者(尤其是动物)似乎有资格作为道德受动者,但原则上来说他们并不能扮演道德行动者的角色。这个后环保主义的进路要求我们转变视角,将视角从行动者导向转变为受动者导向。鉴于之前的标签,我们把这种进路视作非标准进路。(Floridi and Sanders 2004,305)
根据这一安排(这种安排不一定是弗洛里迪和桑德斯的作品中所独有的。见Miller and Williams 1983;Regan 1983;McPherson 1984;Hajdin 1994;Miller 1994),机器问题将分别从行动者导向的视角和受动者导向的视角得到表述和探究。
这项研究始于第一章对机器道德能动性问题的讨论。换言之,这项研究始于追问拥有各式各样不同设计与功能的机器是否可以,以及在多大程度上可以被视作一个能够为其决策与行动负责和被问责的合法的道德行动者。显然,这种探究方式已然代表了一种在思考技术和技术人造物上的重大转变。因为,在大部分西方思想史中(即便不是全部的西方思想史),技术被解释和理解为一种被人类行动者或多或少有效使用的用具或工具。就其本身来说,技术自身既不好也不坏,它只是一种或多或少方便有效的、用以达成某个目的的手段。这种马丁·海德格尔(1977a,5)所说的“对技术的工具式、人类学式的定义”不仅影响深远,而且还被视作自明之理。海德格尔反问道:“谁会否定它的正确性呢?它显然符合我们在谈论技术时所想到的东西。对技术的工具性定义确实正确得不可思议,以至于它甚至适用于现代技术;而从其他方面看,我们则有理由认为,现代技术和从前的手工技术相比是某种全然不同的新事物。……然而,这一点仍然是正确的:现代技术也是实现目的的一种手段。”(Ibid.)
在追问计算机、人工智能或机器人这类技术人造物是否能够被视为道德行动者的过程中,第一章故意直接挑战了这种对技术“正确得不可思议的”刻画。通俗地说,这一部分的探究追问的是,客服代表的标准套路——“抱歉,先生,这并不是我的问题。这是计算机干的”——是否(以及在何种程度上)可能不再仅仅是一种蹩脚的托词,而成为一种合理的机器责任的情境。我们将会发现,这一技术问题的根本性重构绝非一件小事。事实上,它将对我们如何理解技术人造物、人类使用者以及我们为道德责任所设定的边界产生重大影响。
在第二章中,这一研究的第二部分会从另一个角度来处理机器问题,追问在何种程度上机器会成为道德关切与道德决策中的他者。因而,它讨论这一问题:机器是否拥有道德受动者的地位?作为一个道德受动者,无论它是“谁(who)”,都能合法地主张某些需要被尊重与考量的权利。事实上,我用双引号来悬置“谁”这个字是为了表明这正是问题的关键。使用“谁”这个字就已经给予了某人或某物一个在社会关系中的他者的地位。“谁”通常指的是其他人类(human beings)——其他和我们一样应该在道德上被尊重的“人(persons)”(这是另一个需要被彻底考察的术语)。相反,物(things)则被涵盖在“什么”(what)之中,无论它们是动物,是自然环境的各式各样有生命或无生命的组成部分,还是技术人造物。正如德里达(2005,80)所说,这两个小词之间的差异已然标志着一个决定(或者说该差异已然做出了这个决定):“谁”将会在道德上具有重要性,而“什么”将会并且可以被作为纯粹的物而排除在外。需要强调的是,这个决定包含着一些伦理学上的预设、后果和推论。
因而,第二章追问的是机器是否能够,以及在何种情况下能够,算作道德受动者——换言之,它是否可以被“谁”这个词指代并因而拥有一种要求得到适当回应的道德地位。这一对机器道德地位的考量在概念上的先例是它的笛卡尔主义他者——动物。因为动物和机器在传统上共享同一种他异性——最初正是这种他异性使得两者都被排除在道德考量之外——看起来,动物权利哲学中的革新将会提供一个合适的范本,帮助我们将一种类似的道德尊重拓展到机器他者上。然而,这一想法是错误的。事实证明,动物权利哲学对机器的轻视态度与从前的道德思考对待动物的轻视态度如出一辙。这种区别对待不仅要求我们对动物权利哲学的计划进行批判性的再评估,还要求我们以一种完全不同的方式来处理机器问题。
第三章,也就是最后一章,回应了我们在第一章和第二章中碰到的一些关键性的复杂情形和困难。尽管就其在整部书中的结构性位置而言,这一部分要对我们在考察道德能动性和道德受动性的过程中所发展出的诸多冲突给出一种回应,但这一部分的研究既不旨在平衡几种互相竞争的观点,也不试图以一种黑格尔式的解决方案来综合或扬弃它们之间的辩证张力。相反,它以一种另类的方式来处理问题,并尝试阐明一种关于伦理学的思考,这种伦理学的思考超出了“行动者”与“受动者”这一对术语所划定的概念边界。这样一来,第三章对行动者-受动者这组塑造、界定、制约了整个领域的概念对立进行了 解构 ( deconstruction )。
然而,我意识到,在这个特定的语境中使用“解构”这个词是有双重问题的。对于熟悉欧陆哲学传统的人来说,他们通常并不把解构(这个术语通常与雅克·德里达的著作联系在一起,并于20世纪末在美国的英语与比较文学系中获得了相当多的关注)与人工智能、认知科学、计算机科学、信息技术和机器人学这些领域中的努力联系在一起。唐·伊德(Don Ihde)(2000,59)批评了他所观察到的如下现象:“关于当今所谓的‘技术科学’,几乎没有任何会议论文和出版物,在欧陆哲学家的阵营中甚至几乎没有教员和研究生对此感兴趣。”然而,德里达是某种例外。事实上,他对动物-机器的两个方面都感兴趣。至少从《因此我所是的动物》(
The Animal That Therefore I Am
)这部著作在德里达身后出版以来,德里达对“有关活的东西与活的动物”的问题(Derrida 2008,35)的兴趣已经是板上钉钉的事实了。德里达(2008,34)明确指出:“对我来说,那将始终是最重要、最具决定性的问题。我已经通过阅读所有我感兴趣的哲学家的著作或直接或间接地无数次处理这一问题。”与此同时,这位人称“解构之父”(Coman 2004)的哲学家对机器也同样地感兴趣和关注,尤其是打字机和书写的机制。至少从《论文字学》
(
Of Grammatology
)开始,一直到《纸机器》一书所收录的后期文章与访谈,德里达明显对机器感兴趣甚至痴迷,尤其是计算机,虽然他承认:“我(或多或少)知道如何使它工作,但我却不知道它如何工作。”(Derrida 2005,23)
然而,对于那些倾向于英美哲学传统或分析哲学传统的人来说,“解构”这个词,用一个相当具有英语色彩的俗语来形容,足以让他们“反胃(enough to put them off their lunch)”。解构既不被认可为一种合法的哲学方法,也通常不被主流的分析哲学思想家所尊重。1992年5月9日在伦敦《泰晤士报》上登载的那封现在已经众所周知的公开信就是一个证据,这封公开信由一大批著名分析哲学家们联署,以回应剑桥大学授予德里达荣誉博士学位的计划。这封公开信上说:“在哲学家们(当然是那些在世界各地顶尖的哲学系里工作的哲学家)看来,德里达的工作并没有达到公认的清晰性和严格性的标准。”(Smith et al.1992)
因此,我们需要搞清楚解构的含义以及如何在机器问题的语境中进行解构。首先,让我们从一个否定性的定义开始:“解构”这个词并不意味着拆开、非建构(un-construct)或者拆卸。解构并不是一种破坏性的分析,也不是一种理智上的拆毁,也不是一个逆向建造的过程,尽管这类流行的误解已然根深蒂固。德里达(1988,147)这样描述解构:“ 解构 ( deconstruction )的‘解(de)’并不意味着对建构本身的拆毁,而意味着一种需要超越建构主义或拆毁主义的框架去思考的东西。”因此,我们绝不能够通过诸如建构与拆毁这样的概念对立来理解和界定解构。
其次,简要而言,解构包含了一种一般性的策略,去介入上述概念对立以及所有其他持续塑造着、制约着知识系统的概念对立。正如德里达所说,以这种介入为目的,解构包含着颠倒( inversion )和概念 置换 ( displacement )的双重姿态:
依据一个既具有系统性又自身分裂的整体,我们必须进而使用一种双重姿态,一种双重书写(即,一种自身具有多样性的书写),一种我在《双学时》(The Double Sessions)一文中所说的 双重科学 ( double science )。一方面,我们必须经过一个 翻转 ( overturning )的阶段。如果要正确对待这个翻转阶段的必要性,我们就要认识到,经典的哲学对立并不是一种面对面的和平共存,而是一种暴力的等级。在对立的两个术语中,一个(在价值上、在逻辑上,等等)支配着另一个,或者说,一个占据着上风。要解构这种对立,首先就要在某个时刻翻转这个等级。……不过,另一方面,如果止步于这个阶段,那么我们就仍然是在被解构的系统所规定的领域内部活动。通过这种双重书写(确切地说,是一种有层次的、既移动又被移动的书写),我们必须指出,在翻转(它将高高在上者打落尘埃)和一个新“概念”的突现(这个概念不再能且永远不能被原有的系统所涵盖)之间存在着距离。(Derrida 1981,41-43)
第三章所使用的正是这种双重姿态或双重科学。在第三章的开头,我们将和那些在传统上处于弱势地位的术语站在一起,去反抗那些在当前论述中通常占据优势地位的术语。也就是说,第三章将在一开始先策略性地支持并拥护受动性去对抗能动性,它做到这一点的方法是去展示“能动性”如何不是某种在本体论上被规定的、属于某个个体存在者的属性,而是始终是一个社会建构的主体地位,这个主体地位是被“(预先)设定的([presup]posited)”(Źižek 2008a,209),并且,这种主体地位的分配是被他者所制定、支持和控制的。这个概念颠倒就其自身而言是不够的,尽管它改变了局面。它仍然只是一种纯粹的革命性姿态。如果我们仅仅是翻转标准的等级并去强调那个在原有等级中处于弱势的术语,那么我们的努力就会局限在由行动者-受动者的辩证法所界定的概念场域之内并将持续受到它的制约。因此,我们需要再往前推进一步,确切地说,我们需要的是“一个新概念的突现”,这个新概念没有,且不能够,在原先的系统中被把握。特别地,这将会体现为另一种对 受动性 的思考,在这种思考中,受动性并不被设定为或预定为某种从主动性中派生出来的东西或者某种主动性的纯粹对立面。它将会是一种原初受动性,或者我们也可以遵循德里达式的做法,将之称为 元受动者 ( arche-patient ),这种元受动者超出了行动者-受动者这一组概念对立。
可疑的结果
和许多批判性尝试一样,这一努力产生了一些可以说可疑的结果。正如德里达(1988,141)所清楚地意识到的,这恰恰是“令人不安的东西”。尼尔·波斯曼(Neil Postman)(1993,181)恰当地描述了通常的期待:“任何从事文化批判的人都必须忍受这一问题:如何解决你所描述的问题?”
这种对批评的批评虽然完全是可以理解的并且似乎遵循了良好的“常识”,但它却是被一种对
批判
(
critique
)的角色、功能和目的的相当狭隘的理解所引导的,这种狭隘的理解被一种工具性逻辑(这种工具性逻辑已经被应用到了技术上)所塑造并且反过来又加强了这种逻辑。然而,在批判哲学的传统与实践中,存在着一种对这个术语更加精确、更加细致的界定。正如芭芭拉·约翰逊(Barbara Johnson)(1981,xv)所刻画的,批判并不仅仅是一种以改善局面为目的的、对某一特定系统的缺陷与瑕疵的考察。相反,“它是一种关注该系统的可能性之基础的分析。批判从那些看似自然、明显、自明或普遍的东西出发,进行反向回溯,以表明这些东西有其自身的历史,有其之所以如此这般的理由,有其自身之后果,也表明它们并非既定的起点,而是某种它们自己通常视而不见的构造的结果”(Ibid.)。按照这种理解,批判并不单单是为了找到问题从而解决这些问题,也不仅仅是为了提出一些问题从而给出答案。当然,这类做法本身并没有什么错。然而,严格地来说,批判包含着更多的东西。批判旨在找到并暴露出某个特定系统的根本性的运作方式以及可能性条件,展示那些最初乍看起来毫无疑问、再显然不过的事物实际上拥有一个复杂的历史,这一复杂的历史影响了那些源自于这些事物的东西,而且其自身通常不会被察觉。
这种努力与所谓的哲学完全一致,不过我们同样需要明确“哲学”这个词指的是什么。根据一种理解,哲学正是在经验科学搁浅或撞上自身的边界时才开始发挥作用。德雷克·帕特里奇(Derek Partridge)和约里克·威尔克斯(Yorick Wilks)(1990,ix)在《人工智能的基础》( The Foundations of Artifcial Intelligence )一书中写道:“哲学是一门每当根本性问题或方法论问题出现时就开始起作用的学科。”例如,判定道德责任问题的一个关键一直是 意识 。这尤其是因为道德行动者通常是通过一个思维着的、有意识的主体被界定。然而,不仅仅意识是由什么构成的这个问题很有争议,而且我们也完全不清楚要如何用经验的或客观的测量方法去探测意识是否实际地出现在了另一个存在者之中。“正是因为我们不能够完全通过客观的测量与分析(即科学)来解决意识的问题,哲学就可以发挥关键性的作用。”(Kurzweil 2005,380)按照这种理解,哲学被构想为一种补充性的努力,它被添加进来以处理或平息那些经验科学无力回答的问题。
然而,这种对哲学的角色与功能的理解是狭隘的并且可以说是非哲学式的,这种理解已经假定了任何探究的目的都是为问题提供答案。但这种理解未必准确或恰当。斯拉沃热·齐泽克(2006b,137)主张:“不仅存在着正确的或错误的解决方案,还存在着错误的问题。哲学的任务不是给出答案或提供解决方案,而是对问题本身进行批判性的分析,从而让我们看到,恰恰是我们理解问题的方式阻碍了我们解决问题。”需要记住的是,这种获得反思性自我知识的努力正是批判哲学的先驱伊曼努尔·康德在《纯粹理性批判》(
Critique of Pure Reason
)中所提倡的,在那本书中,康德故意避免对那些构成了形而上学争论的现有问题做出回应,以评估这些问题本身是否,以及在何种程度上,具有坚实的基础或根基。康德(1965,Axii)在《纯粹理性批判》第一版序言中说:“这在我看来并不意味着对各种书本和体系的批判,而是对一般理性之官能的批判,着眼于理性官能独立于经验而可能追求的一切知识。纯粹理性之批判因此将判定一般形而上学的可能性或不可能性,并规定其来源、范围和界限。”同样地,丹尼尔·丹尼特(Daniel Dennett)(在哲学的光谱上,这位哲学家通常被定位在远离齐泽克和康德这类哲学家的另一端)提出了类似的看法。“我是一个哲学家,而不是一个科学家;我们哲学家更擅长于问题而不是答案。我并不是一上来就贬损我自己和我的学科,虽然乍看上去我是在这么做。找到更好的问题并打破提问的旧习与传统是人类认识自身与世界的宏大事业中非常困难的一部分。”
(Dannett 1996,vii)
对于康德、丹尼特、齐泽克和其他许多人来说,哲学的任务并不是为那些难以回答的问题提供答案从而为经验科学拾遗补阙,而是批判性地考察那些现有的问题从而评估我们一开始是否问对了问题。因此,《机器问题》这本书的目标并不是为诸如有关机器道德能动性的问题或机器道德受动性的问题提供明确的答案。相反,它将考察,在何种程度上这些“问题”被理解和被阐明的方式已经构成了重大的问题和困难。借助一个视觉的比喻,我们可以给出一个既具有理论性(“理论[theory]”这个词源自于古希腊语,θεωρɛ́ω,意思是“看、观看或注视”)又具有比喻性的说法:问题的功能和照相机取景框的功能类似。一方面,取景框将事物定位在我们视野的空间之内,从而让我们能够看到这些事物并探究它们。换言之,问题使事物进入我们的视野并被探究,从而打开了一系列的可能性。与此同时,另一方面,取景框一定也会排除掉很多其他的事物——那些我们可能根本不知道的事物会因为超出了能被看到的范围而被排除在外。这样一来,取景框也使其他东西边缘化了,使它们被排除在外、无法被识别。当然,这并不是说我们要抛弃取景框。我们总得需要某种取景工具。关键在于我们要发展一种发问方式,这种发问方式要承认,任何问题(无论这些问题被表述得多么好、被使用得多么谨慎)都包含着有关哪些东西被纳入考量、哪些东西被排除在考量之外的排他性决定。我们所能做的最多是(这也是我们所必须做且应该做的),持续地对发问本身进行发问,不仅仅要追问在一个特定的问题中,哪些东西被给予优势地位而哪些东西又必然被排除在外,还要追问一个特定的探究模式是如何做出,且不得不做出这些决定的;这些决定支持了哪些假定和底层价值;以及,哪些后果(本体论上的、认识论上的、道德上的)会随之而来。如果机器问题想要成为一项成功的哲学探究,那么它就需要追问:这个特定的努力给我们施加的取景框选取了哪些东西?哪些东西被排除在探究的视野之外?这些特定的决定是为哪些利益和投资服务的?
在给出这种解释时,我并不想要拒斥或忽略那些试图解决涉及自主或半自主机器和(或)机器人的责任问题的更加务实的努力。这些问题(以及对这些问题的可能的回应)对于人工智能研究者、机器人工程师、计算机科学家、律师、政府等来说当然是很重要的。然而,我想指出,这些务实的努力对它们所使用的概念的遗产、逻辑和后果往往缺乏全面的理解和把握。因此,批判性的事业对于这类后续研究来说是一个重要的预备或引论,它也能够帮助那些从事这类务实性努力的人去理解那些已然塑造着、制约着他们所试图处理的种种冲突与争论的概念框架和根基。正如康德所认识到的,在缺乏这样一个批判性预备的情况下贸然前行,不仅仅是在盲目地为那些很可能被误诊了的病痛寻找往往欠考虑的解决方案,而且还会面临这样一个风险:在一个自以为新颖的、具有原创性的解决方案里重新制造出那些我们原本想要解决的问题。