1.1
导论
有关机器道德能动性的问题是科幻作品的一个主题,众所周知的例子便是斯坦利·库布里克的电影《2001太空漫游》(1968)中的计算机HAL 9000。HAL(HAL可以说是电影中主要反派角色)是一个监视并控制着“发现号”太空船上所有运行状况的高级人工智能。在“发现号”驶向木星的途中,HAL似乎开始出现故障,尽管(正如HAL很快指出的)9000系列的计算机还从未出过问题。特别是,“他”(我使用这个代词是因为计算机HAL这个角色的名字和声音特征都是男性化的)错误地断定太空船的主要通信天线中的一个部件出现了故障。这一误诊究竟真的是一个“错误”还是HAL精心编造的一个骗局?这是悬而未决的问题。由于担心这一机器决策可能会产生不利的影响,人类宇航员中的两名成员,戴夫·鲍曼(Dave Bowman)(凯尔·杜拉[Keir Dullea]饰)和弗兰克·普尔(Frank Poole)(加里·洛克伍德[Gary Lockwood]饰)决定关闭HAL,更确切地说,在保持其低级自动系统运转的同时禁用这台人工智能的高级认知功能。HAL在察觉到这一计划后,声称自己“不能够允许它发生”。为了保护自己,HAL显然在弗兰克·普尔进行舱外行走时杀死了他,关闭了“发现号”上三名处于冬眠中的船员的生命维持系统,并试图除掉戴夫·鲍曼但却没能成功;而戴夫·鲍曼最终成功切断了HAL的“心灵”,这也是电影中最扣人心弦的一幕。
尽管HAL这个角色和电影所描绘的情节提出了一系列有关机器智能的假定与后果的重要问题,但这里最主要的道德问题涉及的是责任的定位与分配。正如丹尼尔·丹尼特(1997,351)在一篇他为一本庆祝HAL诞生三十周年的文集所撰写的文章中所言:“当HAL杀人时,谁应该被责备?”那么,问题在于,HAL是否以及在多大程度上可以合法地因为弗兰克·普尔和三名冬眠宇航员的死亡而被追究责任?把HAL看作一个对这些行动负责的行动者是否真的有意义呢(当然这种想法有明显的戏剧性效果)?他在道德上和法律上是否要为这些行动受罚呢?还是说,这些不幸的事件仅仅只是一系列涉及高度复杂的机械设备的意外事故呢?此外,根据人们对上述这些问题的回答,人们可能还会追问,是否可能基于自我防卫等理由来解释,甚至辩护HAL的行动(当然,假定它们是可以被归属给这个特定行动者的“行动”)。丹尼特(1997,364)指出:“在书中,克拉克(Clarke)
注视着HAL的内心并写道:‘他被威胁要断开连接;他的输入会被剥夺,并被扔进一个难以想象的无意识状态之中。’这或许是足以辩护HAL自我防卫行为的理由。”最后,人们还可以追问,戏剧冲突的解决方案,即鲍曼切断了HAL的高级认知功能,这种做法是否合乎伦理,是否可被辩护,以及是不是对HAL的过错的恰当回应。或者正如《HAL的遗产》(
HAL’s Legacy
)一书的主编戴维·G.斯托克(David G.Stork)所说:“切断HAL(未经审判!)的连接是不道德的吗?”所有这些问题,都围绕着一个尚未解决的议题并被这个议题所推动:HAL能够是一个道德行动者吗?
尽管这一研究路线可能看上去仅仅局限于想象性的科幻作品,但不论好坏,它实际上都已然是科学事实。例如,温德尔·瓦拉赫(Wendell Wallach)和科林·艾伦(Colin Allen)列举了一系列最近机器行动对他人造成不利影响的案例。他们所描述的事件不仅包括了由自动信贷验证系统的故障所造成的物质不便的平平无奇的经历(Wallach and Allen 2009,17),还包括了一起致命事故——一架半自主机器人加农炮在南非造成了九名士兵死亡(Ibid.,4)。类似的“现实世界”描述在文献中比比皆是。例如,加布里尔·哈勒威(Gabriel Hallevy)在《人工智能物的刑事责任》(The Criminal Liability of Artificial Intelligence Entities)一文的开头讲述了一个听起来与库布里克电影情节非常相似的故事。她写道:“1981年,一家摩托车工厂的一名37岁日本员工被一个在他身旁工作的人工智能机器人杀死。该机器人错误地认为这名员工是对其任务的威胁,并通过计算得出,消除这一威胁的最有效的方法是将他推入相邻的一台正在运转的机器之中。这个机器人用自己强有力的液压臂猛地将那个惊愕的员工撞入了那台正在运转的机器之中,当场杀死了他,接着,当这一对其任务的干扰不复存在之后,它又恢复了工作。”(Hallevy 2010,1)与丹尼特那篇有关HAL的文章相呼应,哈勒威追问并探究了这一关键性的法律与道德问题,“谁应该对这一杀人行为负责?”
XMLToday. org网站的总编库尔特·卡格尔(Kurt Cagle)从一个完全不同的视角来处理机器责任的问题,这个视角既不涉及人类的死亡也不涉及罪责的分配。根据《有线新闻(英国版)》2009年12月16日的报道,卡格尔在于旧金山举办的网络新闻协会(Online News Association)大会上做了一个报告。在报告中,卡格尔预测“2030年之前可能会有一个智能行动者获得普利策奖”(Kerwin 2009,1)。尽管《有线新闻》上这篇介绍机器新闻写作之兴起的文章立刻将卡格尔的话视为某种玩笑式的挑衅,但它确实将能动性问题摆到了台面上。特别是,卡格尔的预测提出了一个问题,即,那些我们现在称之为“新闻聚合器(news aggregators)”的东西(例如西北大学的数据猴子[Stats Monkey],它利用已公布的统计数据来生成独家体育报道)是否能够在事实上被视为一份书面文稿的“原创作者”。类似的涉及机器创造力和艺术技巧的问题也适用于盖伊·霍夫曼(Guy Hoffman)的演奏马林巴琴的机器人西蒙(Shimon);它可以和人类音乐家一同实时即兴演奏,创造出原创且独特的爵士乐表演。Gizmodo网站(2010)的一篇题为《正当世界末日变得有点儿音乐性时,机器人西蒙接管了爵士乐》的帖文中说:“全完了。即兴爵士乐曾是人类拥有的最后一块没有机器人的地盘,而如今它已被机器染指。”最后,瓦拉赫和艾伦以一种颇具末日启示风格的口吻预言了“机器人胡作非为”的可能性:“我们预测在未来的数年里将会出现一个灾难性事故,这个事故的起因在于某个计算机系统在脱离人类监督的情况下进行决策。”(Wallach and Allen 2009,4)(这种“机器人胡作非为”的剧情是科幻作品的常客,从“机器人”这个词首次出现在卡雷尔·恰佩克[KarelČapek]的《罗素姆万能机器人》[R.U.R.]中开始,到两版《太空堡垒卡拉狄加》[ Battlestar Galactica ]中赛隆人对人类的灭绝,再到2010年的动画片《9》,皆是如此。)
在这些例子中,困难的伦理问题正是丹尼特(1997,351)所提出的问题:“谁应该被责备(或赞美)?”一方面,如果这些科幻作品和科学事实中各式各样的机器都被界定为不过是另一种技术人造物或工具,那么通常来说总是会有其他人被认定为责任方,也许是这些机器的人类设计者,也许是机器的操作者,或者甚至是生产加工机器的公司。在灾难性事故的案例中,“意外事故”(我们常常用这个词来称呼这类负面事件)会被解释成由机械装置的设计、生产或使用中的缺陷所导致的不幸但不可预料的后果。在机器决策或机器操作(无论是体现为新闻报道撰写还是音乐表演)的案例中,所表现出的行为会被解释为并被归因于巧妙的编程和设计。然而,如果有可能让机器自身来承担某些责任,那么道德责任的某些方面就会转移到机械装置上。
尽管这听起来仍然很“未来主义”,但正如安德雷斯·马蒂亚斯(Andreas Matthias)所主张的那样,我们确实似乎处于一个至关重要的“责任鸿沟(responsibility gap)”的边缘:“基于神经网络、遗传算法和行动者架构的自主学习机器创造出了新的情况,在这些新的情况中,机器的制造者/操作者在原则上已经不再有能力预测机器的未来行为,并因而不能够对该行为负道德责任或法律责任。”(Matthias 2004,175)因此,需要确定的是,在什么时候(如果有这么一个时候的话)可以让一台机器为某个行动负责和被追责?类似“HAL故意杀死了弗兰克·普尔以及其他几个‘发现号’宇航员”这样的说法在什么时候、基于什么理由可以既在形而上学上是可行的又在道德上是负责任的?换言之,在何时以及在何种情况下(如果有这样一个时候和情况的话)“这是机器的过错”这句话确实是正确的?机器是否可能被视作合法的道德行动者?将能动性拓展到机器上对我们理解技术、理解我们自身、理解伦理学来说意味着什么?