人工智能与监管
摘 要: 人工智能的发展日新月异,已广泛应用于多个领域和场景,并逐步进入实际应用阶段。人工智能运用在带来技术变革的同时,也引发了潜在风险。本文主要讨论人工智能的监管问题。这种监管首先是技术层面的监管,旨在克服人工智能技术的风险;其次,是运用场景的监管,旨在减少在一些领域中运用人工智能所带来的可能伤害。对监管者而言,人工智能监管是新的挑战,既有监管层面的挑战,也有技术层面的挑战。这些挑战要求监管者有新的监管理念和监管技术。
关键词: 人工智能;风险;监管;监管技术;算法监管
在过去的二十年间,人工智能(AI)的开发与应用取得了显著进步。AI不仅与我们的日常生活紧密相连,而且在企业的运营、辅助决策和合规管理中也发挥着关键作用。从遵守劳动法、公司法、金融法及上市法规,到协助企业管理、资产评估和财务报表,乃至塑造企业经营模式,AI的影响无处不在。即使是在高等教育领域,也无法忽视ChatGPT等AI技术带来的深远影响。
一、简介:了解人工智能 [1]
首先让我们来了解一下什么是人工智能(AI)。在技术发展的早期,研究人员和科学家对创造一部能够自动执行单调操作和复杂计算的机器比较感兴趣,然而随着技术的发展,他们开始思索,即构建可以从数据和模式识别中学习并得出自己的结论的机器人,后来,他们开发了能够进行语音识别、图像分类和自然语言处理的人工智能系统。能够执行对人类来说风险太大或具有挑战性的工作(例如太空探索或复杂的手术)的计算机,是创造人工智能背后的主要动力之一。
人工智能还被视为是提高各个行业效率和生产力和遵循法规的一种方法,从制造业到金融(SAS)等。最近还出现了人工智能聊天机器人和语音生成器,例如ChatGPT和Speechelo(Ortiz)。ChatGPT是一种人工智能聊天机器人,用于进行类似人类的对话,通常用于帮助回答问题,而Speechelo则用作语音生成器,用于生成文本到语音的音频,还可以将文本转换为选定名人的声音(“如何通过TTS生成器生成名人人工智能语音”)。人们渴望创造能够执行智能任务并独立做出决策的机器,而不需要持续的人工干预,这种渴望最终导致了人工智能的诞生。上市公司必须遵守法规,包括与财务报告和公开披露信息有关的规定。尽管人工智能仍处于发展阶段,但它已经对企业的全球运营方式产生了影响,特别是在企业合规方面。
二、现阶段AI的能力
工业界和学术界传统上将人工智能(AI)分为两类:一是通用的或强的人工智能,即有感知的人类意识型人工智能;二是狭义的或弱的人工智能,即拥有对海量数据进行统计分析和计算能力的人工智能。前者是最终的科幻目标,但实际并不存在。 [2] 现有的AI是弱的人工智能,弱的人工智能模仿一些人类智能例如语音或面部识别,它的某些计算能力超出了人类的能力,然而,它还未达到人类智力的级别。 [3] 现在企业合规所应用的人工智能基本上都属于这类,市场上描述和出售的人工智能的统计模型其实并不是智能。 [4]
我们最好的人工智能决策程序其实只是统计模型(statistical model),通常存在人为的问题,即不完善的统计分析设计、数据或数据解释。人工智能的功能被严重夸大,而公司也经常将产品误认为是人工智能产品。例如,2019年,欧洲2/5的人工智能初创公司被发现在其产品中没有使用可识别的人工智能技术。
[5]
受科幻小说启发,科技未来也有一种强烈的信念,就是技术和它的发展本质上不受法律和监管的约束:新的技术的开发受数学计算的支配,过时的现有法律不能阻止新的技术发展。这些主张体现了技术决定论(technological determinism)。
[6]
1996年,约翰·佩里·巴洛(John Perry Barlow)在《网络空间独立宣言》(
A Declaration of the Independence of Cyberspace
)
中拒绝了政府对网络空间的支配,这成为著名的Facebook的“快速行动,打破常规”哲学的根源。
[7]
有人认为,我们正在从通过公正的法律进行治理,转向通过数字进行治理。
[8]
这种趋势也与美国科技自由主义(tech libertarianism)融合在一起,后者具有特定的以商业为中心的风格。在美国自由主义政治哲学(libertarian political philosophy)的整体中,这最接近于独裁自由主义学派(autarchist libertarian school),其核心区别在于脱离国家的经济自由,
[9]
例如,特斯拉的埃隆·马斯克(Elon Musk)和亚马逊的杰夫·贝佐斯(Jeff Bezos)等科技亿万富翁对太空探索的推动,承载着公司能够在真正的无法律区运营的独裁自由主义承诺。
[10]
这种自由主义已经产生了影响,因为各国政府特别是英国和美国政府,正在推动放松管制的自由主义技术决定论(deregulated libertarian tech-determinist)。
将人工智能当成是真正的智能造成了这些监管的放松,“神经网络”“机器学习”和“人工智能”等人工智能术语,把人工智能描绘成一个具有高级智能的通用人工智能世界,而不是有限的人工智能,然而现实是,现有的AI大多是标准的弱人工智能统计模型,这些模型的新颖之处仅在于:其利用计算能力,隐藏了人工智能主要由弱的统计模型组成的现实,隐藏了它不是新技术或有技术性的事实,因此,在逻辑上不是决定论。在其有限的范围内,正确设计弱的人工智能统计模型仍然是一项需要高技能的工作,要做得正确,既昂贵又耗时。大规模计算能力虽然允许我们做更大的统计规模,但在基本统计完整性方面根本没有任何改变,完全还要靠人类的判断。技术含量较高的人工设计、操作和监督仍然至关重要。目前被称为人工智能的统计模型,如果使用得当,它们还是可以成为社会进步的有用工具。毕竟这就是人工智能的吸引力。其可以将人类从危险或劳动密集型任务中解放出来,改善人类健康并增强人类分析世界的能力,这是一个积极的目标。精心设计的弱人工智能可以以人类根本无法做到的方式分析巨大的数据库,并且可以产生人类无法自行发现的、违反直觉的数据分析结果。
然而,人工智能如果使用不当,其有可能将无辜者送进监狱、歧视妇女和少数族群、不公平地将人们排除在金融体系和公共服务之外……我们必须认识到技术本身不是一种预先注定不能改变的决定性力量,而是由人类决策产生的社会建构,并了解这些是在公共利益最大化的同时又最小化人工智能带来的危险的关键。 [11]
三、人工智能的挑战
(一)低质量的人工智能
高质量的弱人工智能统计机器学习模型的流程如下所示:首先,设计者确定模型将做什么,让对人工智能和合法政策有详细了解的人参与。设计者应通过评估可用数据的范围和质量来决定使用哪些数据。如果质量太低,则应该结束项目,直到获得更好的数据。在大多数情况下,数据可能不完整或有问题。某些版本的统计中值填充函数可用于填补空白并完成有问题的数据库。这是正常现象,但可能会影响结果,因为数据库的一部分必然是不正确的。之后,应该运行标准统计机器学习软件,或者在涉及图像或语言的更复杂的情况下,运行诸如人工神经网络之类的软件。根据行业规范,当根据已知决策结果“训练”或校准人工智能的过程达到至少90%的准确度时,就存在一个可行的人工智能模型。来自不同背景的人们应该批判性地评估测试结果,而且这些结果应该是可以解释的。如果融入了定制编码元素,则可能需要对程序进行调试。 [12] 当人工智能投入使用时,应该定期对它进行审核,以在处理新情况时重新校准它,并看它是否按照组织和法律制定的政策路线执行。
上述步骤在商业技术人工智能开发中并不常见,因为生成高质量人工智能模型的成本极其昂贵。2012年,在美国爱达荷州,尽管人们知道数据的高度不正确和测试结果存在巨大问题,但政府官员还是投入了弱的人工智能决策算法,导致医疗补助削减至4 000名残障人士。除了质量低下之外,人工智能在应用中还广泛存在偏见。
(二)人工智能偏见
如果设计该项目的人不代表社会,具有明确或无意识的世界观,这可能会对结果产生强烈偏差。在人工智能公司工作的大多是具有特定数学或工程背景和思维模式的男士。 [13] 此外,从科技公司披露的有限的公开数据来看,这些男士大多是白人,第二大群体是亚洲男士, [14] 黑人女性是一个代表性不足的群体。 [15] 在对人工智能发展至关重要的关键技术角色中,男性的比重更高、更普遍。性别和种族偏见影响了主要由白人设计的人工智能系统。
例如,不假思索地用白人男性的主导图像进行校准(训练)的人工智能图像识别,在从医疗保健到警务等一系列领域使用时,会对大部分人口产生显著的负面影响。
[16]
同样,借助计算机理解书面语言或口语所必需的单词嵌入技术,男性和女性被赋予了传统的性别角色,因为男性嵌入了与性别相关的单词。
[17]
例如,使用搜索引擎寻找工作的男性会比女性获得更高薪的工作。
[18]
谷歌针对男性设计和测试的语音识别系统在识别女性声音方面存在问题。
还有其他形式的偏见,例如苹果的虚拟人工智能助手Siri最初拒绝提供有关堕胎服务的信息。 [19] 加利福尼亚州用于评估再犯罪风险的刑事司法COMPAS AI算法被发现存在种族偏见。 [20] 2018年8月,亚马逊发现其人工智能招聘计划将女性排除在考虑范围之外后,放弃了该计划。根据十年前的招聘数据,该计划排除了女性,有时甚至雇用了不合格的工人。新申请人简历中的词语若表明申请者是“女性”俱乐部成员或女子大学的毕业生将被淘汰或降级,而人工智能则青睐使用“执行”或“捕获”等男性工程师类型动词的申请人。在男性主导的科技行业,人工智能只是反映了以前的员工大部分是男性。 [21] 亚马逊已放弃了其人工智能招聘系统,但联合利华和微软的LinkedIn等其他大公司还在使用或寻求使用类似的系统。 [22]
其他具有类似问题的亚马逊人工智能决策系统也在英国和美国的警务和准司法系统的公共部门中使用,这些系统的决策结果也同样表现出偏见,特别是种族偏见。 [23] 科技行业内人工智能发展的控制通过人工智能决策以特洛伊木马形式将行业内的性别、种族和技术偏见输出到科技领域之外。客户购买的不只是一个人工智能决策系统,而是一个直接反映其有价值观缺陷的技术设计师设计的人工智能决策系统。这不仅对于维持公正的社会,而且对于我们对正义的看法都存在严重问题,因为在许多情况下,我们根本不知道人工智能决策的基础是什么, [24] 所以如果应用在企业合规的人工智能程序带有偏见,某类型的企业、公司或董事可能被执法部门特别针对。
(三)黑盒作业
并非所有人工智能都只用基本的机器学习。某些任务,例如图像识别和语音识别或翻译,包含普通机器学习无法捕获的细微差别和微妙之处。需要更复杂的深度学习人工智能模型(例如人工神经网络),通过将各种统计算法组合到一个框架中来运行,模仿人脑中的神经网络的运行方式。 [25] 这种深度学习的AI已经开发出来。从标记的马图像示例中,人工神经网络最终可以处理新的未标记图像,并有望以90%以上的准确度识别一匹马,甚至可能是一匹特定的马。然而,这种复杂的系统可能会带来一个重大缺陷——很难解释该项目决策的基础,这是黑盒作业的根源。 [26] 黑盒作业是人工智能内部非常复杂的决策,甚至不可能知道为什么会出现特定的结果。然而,这并不是因为人工智能黑匣子内部有一个高深莫测的深思熟虑者,而是因为人工智能在半成品时就已投入使用,它缺少一个可以解释结果的关键诊断组件。这些系统的部署是因为设计者并不关心人工智能决策的基础,而是关心其操作的“美感”,即使他们不知道它是如何操作的:一种数学或工程思维偏见正在运作。 [27]
对于计算机科学家和工程师来说,关键的可能是人工智能产生看似高比例的结果,但对于律师、医务人员、受其结果影响的公民来说,以及最终这些系统能否合法和有用的运行,其关键是这些运营决策的基础是什么。不幸的是,直到最近,可解释性才成为设计职责的一部分。 [28] 这种缺乏可解释性的现象引发了深度学习人工智能黑匣子系统在任何领域应用的危险法律信号。虽然公民可对有缺陷的决策向法院求助,但是否成功取决于了解决策的原因。同样,了解医疗诊断的原因或为何自动驾驶的汽车(飞机)会失事是至关重要的。在健康领域,谷歌和IBM一直在开发人工智能的健康应用。IBM的Watson for Oncology揭示了某些关键问题。
首先,在癌症护理等复杂领域,它使用的是美国中产阶级环境中的一家医院的癌症诊断数据库,未将该数据库应用到世界各地的治疗,因为世界各地的医疗和营养情况与它截然不同。其次,那些使用Watson的人发现很难理解为什么Watson会推荐特定的治疗方案,而且这些方案是违反直觉的或可能是错误的。虽然Watson可以提供相关的文献供阅读,但无法解释推荐的原因。2018年3月,一辆自动驾驶Uber汽车在测试过程中撞上一名推着自行车过马路的女子,最终导致该女子死亡。她的死亡是汽车的维修问题以及车内后备驾驶员的失误和汽车的人工智能决策导致的。 [29] 特斯拉在2016年也发生过与其人工智能自动驾驶系统故障有关的死亡事件。调查人员发现很难确定人工智能的决策。 [30] 了解发生了什么对于从道路(航空安全)到医疗和金融等一系列监管机构来说是至关重要的。制造商向监管机构提出的主张是,只要涉及人工智能,它就是一个智能黑匣子,而不是公司过早设计和实施的统计或概率模型的问题。如果人工智能自主做出决定,那么,这个结果似乎也不是Uber、特斯拉、IBM或谷歌的错。在人工智能设计范围的另一端的问题是人工智能设计师确实知道他们想要达到的结果。
一些人工智能设计师明白,由于人工智能是人类设计的产物,因此人工智能有可能在新的人工智能环境中根据私人目的塑造世界,这进一步的引起了公共利益的担忧。人工智能文献中出现了这样的担忧:当意外发生时,自动驾驶汽车的人工智能将拯救车内的乘客而不是车外的人。 [31] 事实上,奔驰高管似乎已证实了这一点,奔驰人工智能系统的设计目的是保护驾驶员和乘客,而不是车外的人, [32] 这里出现了重要的法律问题。虽然人工智能确实能在人类能力范围之外做出更好的决策,但前提是人工智能设计的决策在公共利益方面要得到认可。自动驾驶汽车可以做出更好的决策,因为它的传感器和人工智能决策可能比人类反应更快。如果将人工智能编写为优先考虑车内人员和其他道路使用者的生命,而不是突然飞到汽车前面的塑料袋,那么,人工智能可能会做出更好的选择。可是,当需要在拯救驾驶员和乘客或是行人之间做出选择时,人工智能已经做出了有利于驾驶员和乘客的选择。毕竟按照行业的逻辑,驾驶员为产品付费,所以应该选择拯救驾驶员。同样,Facebook的人工智能算法被故意用来塑造人们对事件的看法,并可能助长歧视行为。 [33] 2010年,第一资本银行利用它对算法偏差的理解,故意将少数种族客户引导至办理利率更高的信用卡,暴露了金融领域的设计偏差。 [34] 包括亚马逊在内的在线零售商使用以算法偏差的程序进行差异定价, [35] 这可以解释为什么你线上买机票或酒店价格一直在变。2010年和2015年全球金融市场的闪崩被归咎于交易算法的失误,其实并非算法有缺陷,而是算法是交易者故意设计的,旨在操纵市场并导致崩盘。 [36] 像这样新颖的“设计”人工智能决策具有重要的公共利益监管意义。
金融市场价格、利率、商品价格、投票给谁、谁生谁死等大是大非的问题不应该由人工智能设计者来决定。公共利益监管需要认识到人工智能本身既不是一个自主决策者,也不是一个因它的智慧或复杂性而可以受到尊重的系统,它是人性设计的结果。这些设计的人也可能是有问题的人工智能用户。
(四)AI复杂性(优势萎缩)
导致人工智能潜在危害的另一个加剧因素是人们普遍误解人工智能比人类拥有更高的智能。因此,即使人工智能的结果明显存在问题,人类也可能会遵从它。在医学界,在复杂的诊断情况(例如放射剂量)中,尊重计算机结果有着悠久的历史,经验丰富的专业人员只是简单地接受计算机产生的明显错误的剂量。 [37]
2018—2019年,几个月内发生了两起涉及波音新型737 Max 8准自动电传操纵系统的坠机事件,引发了所谓的“复杂性萎缩”问题。经过多年的电传自主飞行的飞行员可能无法应对必须在困难的情况下驾驶飞机,或者无法一直在努力纠正人工智能计算机系统做出的但并非飞行员能够理解的电传飞行决策。
[38]
当非专家使用人工智能时,例如在就业或公共部门情况下,这些复杂性(优势)组合可能会产生更大的扭曲影响。这种情况已经在美国广泛发生。
(五)低成本人工智能与人类的比较
即使是最高质量的人工智能决策模型也会给用户和决策对象带来挑战。相对于经过训练的人类决策,人工智能决策并不是完全准确的。真正高质量的系统可能会达到97%,但大多数系统的使用准确率要低得多。训练过程中90%以上的准确度也并非表面上看起来的那样,因为大多数大型人工智能数据库都是不完整的,并且已经经过统计增强(加工处理过)以允许它们运行,因此它们在应用中的准确度可能远低于90%。如果人工智能决策是关于图像是狗还是猫,或预测文本结果,那么,就算准确度低于90%还是可以接受的,但在其他情况下,90%或更低的准确度就不太可以接受了。设计不当的软件和软件中的错误以及硬件问题也会影响人工智能的准确性。
事实上,英国大都会警察局和南威尔士警察局部署的大规模人脸识别人工智能系统的准确率仅为10%或更低,并产生了数千个误报犯罪识别。 [39] 即使司法刑事人工智能流程达到了97%的高质量准确率,它仍然会将3%的无辜公民送进监狱。在就业方面,准确率达到90%的系统将导致在人工决策过程中本应被聘用的100名申请人中,有10人未被聘用,这10名申请人可能是统计异常值。潜在的组织创新者将被排除在外,从而损害组织。不符合训练环境的不确定环境也会产生问题。例如,英国货币交易人工智能已被暂停,因为围绕英国脱欧的非历史事件造成的波动不可预测,而这些事件并未出现在它的训练数据中。同样,在人工智能司法决策模型中,随着新变量的出现,偏离训练数据,人工智能会变得更加不可靠。对于人工智能决策系统来说,只有已知的过去才是未来的指南,如果不加以控制,可能会完全根据过去来决定未来。然而,人工智能发展的一个巨大驱动力是成本。
与人类决策相比,人工智能节省的成本是巨大的。联合利华估计,使用HR AI系统代替人工面试和评估候选人可节省70 000工时。 [40] 虽然考虑到组织在候选人性别、种族、民族和教育背景方面需要有长期的多样性和创新性,最终平衡各因素的结果往往倾向于节省成本。事实上,即使一个组织重视多样性和创新,在人工智能实施的成本评估中,人工智能对多元化创新者的排斥所产生的机会成本也可能是无法量化的。2019年,MMC Ventures发布了一份关于人工智能现状的报告,并指出人工智能有可能助长住房、就业、教育、社会福利、保险、金融、消费者定价、自由、隐私和尊严的非法实践和歧视以及破坏民主制度。 [41] 这是一个相当大的清单。人工智能作为不平等的设计和不加思考的驱动因素的现实已经存在。同样令人担忧的是人工智能开发的控制权集中在极少数人手中。
(六)人工智能治理:少数内部人控制
8年前,全球人工智能的主要参与者是英国和美国公司,此后,领先的英国公司被美国公司收购,
[42]
而中国政府已成为人工智能发展的重要力量。
[43]
领先的私营人工智能开发商,例如Uber、亚马逊、Facebook、微软、谷歌、苹果、IBM和特斯拉几乎都拥有不寻常的治理结构,其总体设计目的是将控制权交给一小群互有紧密联系和有非常相似的背景和兴趣的内部人士。这些领先的人工智能公司的治理比较专制且缺乏问责制。直到最近,Uber还是一家私营公司,很少承受公共责任,2019年5月,它成为上市公司,其有两个关键控制人,创始人特拉维斯·卡兰尼克(Travis Kalanick)是董事会成员,并有权任命三名董事会成员。2017年,他因被指控长期存在性骚扰以及面临大股东发起的欺诈诉讼而辞去首席执行官(CEO)的职务。卡兰尼克还开发并实施了一项名为Greyball的计划,以逃避执法部门对Uber全球活动的调查。
[44]
软银(softbank)是Uber的大股东,有权任命两名董事会成员。
[45]
软银和卡兰尼克合计持有Uber 22%的股份。软银是一家日本上市公司,由孙正义直接控制其25.5%的股份,孙正义还是该公司的总裁、董事长兼首席执行官。
软银对Uber的投资是通过软银1 000亿美元的愿景基金,它尝试将人工智能方向塑造为孙正义个人未来议程的一部分。孙正义被描述为硅谷最有权势的人。 [46] 其他领先的人工智能公司已经上市一段时间了,因此现在都受到一系列强化的问责规范约束。虽然旨在保护公众的刑法和特定市场导向的监管在美国证券交易委员会(SEC)的监督下运作,但是金融市场治理有意地回避任何形式的高层问责程序。英国和美国董事会的法律职责主要是关注股东利益,而且其法律责任普遍较弱。 [47] 此外,这些上市公司遵守的公司治理准则旨在强调某些具有高风险的代理成本问题,以确保代表股东进行监督。当应用于这些人工智能科技公司时,它存在三个问题:①法律义务薄弱且不包含任何公共利益要素;②行为标准根据所适用的公司治理准则而存在显著差异,并且在任何情况下,准则的遵循都不是强制的;③这些公司存在控制人,机构股东服务(ISS)根据私营合规规范为上市公司编制治理风险评分。
1分表示公司风险较低,10分表示风险极高。苹果和微软的总分是1,IBM和亚马逊的总分是7,Facebook、Alphabet(谷歌母公司)和特斯拉的总分是10。不过,大多数的公司也因为股权集中而成为上市公司中的异类,它们甚至颠覆了薄弱的对股东负责的问责流程。对于大多数人工智能科技公司来说,这些控制人作为控股股东只对自己负责和担任全部或大部分内部强制责任的角色,即使总分很低也可能掩盖责任差距。虽然苹果的得分为1,但它的一些关键高管和董事会成员是它最大的个人股东。微软已基本上不再是创始人领导的公司,但仍拥有一些重要的内部人士持股。IBM的治理和问责制普遍较差,正如它的ISS得分所表明的那样,因为除其他事情外,Rometty还同时担任董事会中的所有关键问责角色。亚马逊的治理也较差,并且创始人杰夫·贝索斯(Jeff Bezos)通过16.1%的股权实现了行政控制,使他能够担任董事长、总裁和首席执行官。特斯拉、Facebook和Alphabet通常由创始人通过持股或操纵股东投票权来控制。最大的全球机构投资者(养老保险和投资基金)或寻求在上市公司董事会占一席位的基金投资者的股权也不过是拥有该公司7%—8%的股份。埃隆·马斯克(Elon Musk)持有特斯拉近1/3的股份。在2018和2019年,埃隆·马斯克的缺乏责任感以及对美国证券法和SEC的公开蔑视,导致对他的欺诈控诉以及与SEC在治理问题上的和解。 [48] Facebook由马克·扎克伯格通过双重投票结构拥有和控制,该结构使他可以直接控制53.3%的投票权,并且与第二大股东达成的附加协议也可使他控制该股东的投票权。
这种规模的投票控制、高管职位和董事会角色,使扎克伯格能够控制公司的每一项问责机制,并消除任何形式的问责。即使在拥有双重股权的公司中,扎克伯格的控制程度也是极不寻常的。谷歌也采用类似的双层投票结构,谷歌是2004年第一家上市的科技公司,其采用双层股权结构,旨在确保创始人对上市公司的控制权。在此之前,这种结构只存在于《纽约时报》和《华尔街日报》等家族媒体公司中,并且以保护编辑独立为理由。除此之外,这种结构通常被认为对股东来说是不适合且危险的,因为它们已被证明会加剧问责问题并鼓励控制人做出有问题的决策。
[49]
谷歌将双重股权结构解释为防止收购并容许长期关注创新,同时明确表示对该公司的投资就是对拉里·佩奇和谢尔盖·布林的投资。
上市时,佩奇和布林控制了公司50%以上的投票权。直到2019年12月,佩奇和布林还担任谷歌母公司Alphabet的首席执行官和总裁。与Facebook一样,谷歌一直在全球范围内卷入有关数据收集的争议和滥用,而最近其员工举行罢工,抗议它将人工智能用于军事用途,以及对性别歧视和骚扰指控的处理。
[50]
2018年,谷歌的一名高级人工智能研究人员辞职,因为谷歌在协助中国提供人工智能审查和数据收集工具时违反了人工智能原则。
2018年,谷歌还将它的核心行为准则的道德要求——“不作恶”的座右铭删除了。
[51]
另一个重要的治理问题是技术所有者和关键人工智能公司的相互联系程度。
除了IBM和软银之外,这些公司都位于硅谷西雅图,其中几位公司的参与者因参与另一家公司Paypal的经营而相互关联。据报道,他们彼此都是朋友和公司的股东,并共同经营企业。
[52]
更明确地说,微软、IBM、亚马逊、Facebook和谷歌建立了人工智能合作伙伴关系,旨在塑造行业技术标准和公众对人工智能技术的看法。
[53]
总之,科技公司背后有一小群特定的人,他们塑造着人工智能的议程。几乎所有人都在自己的公司中实行独裁治理模式。除非违反刑法,否则,他们几乎不需承担任何责任。如前所述,科技界还拥有一种美国独裁自由主义者
[54]
的放松管制世界观。例如,彼得·泰尔(Peter Thiel)是一位将亚马逊、Facebook、特斯拉、优步和软银联系在一起的投资者,他是科技界的主要自由主义者,而其他人要么是唐纳德·特朗普总统的支持者,要么在他的政府内工作。
[55]
佩奇(Page)经常对政府干预谷歌创建技术自由主义乌托邦的尝试表示遗憾。
[56]
贝佐斯(Bezos)资助了理性基金会(Reason Foundation),这是一个自由主义智库。
科技亿万富翁通常对艾因·兰德(Ayn Rand)的个人自由主义作品怀有钦佩。
[57]
这些公司还进行了大量的游说活动,以制定或废除法律,以适应这些公司控制人的世界观。谷歌是游说欧盟机构的所有行业中第二活跃的公司,微软排名第8,Facebook排名第12,IBM排名第16。在美国,谷歌、亚马逊、Facebook、苹果和微软是2018年游说支出最大的五个公司。除了核心决定论技术问题外,他们的游说还集中在税法改革上,这已成为他们在全球范围内独裁活动的一个特点,不仅利用激进的多司法管辖区公司法策略来减少纳税,而且还打击可能影响税收的法律变更或改变法律,以减少纳税。
[58]
2017年,据欧盟估计,国际科技企业缴纳的税款不到传统企业的一半。
正如已经指出的,科技公司与法律有着不寻常的关系,这反映了科技决定论的自由主义精神。
其中一个关键因素是互联网的出现,它使传统和新兴企业能够以全新的方式提供产品和服务,并保护技术决定论的自由主义观点,也就是说,这些都是新事物,因此现有法律不适用,这就是1996年《网络空间独立宣言》的要点。特斯拉(Tesla)坚称,它不是一家受正常安全考虑的普通汽车公司。 [59] Facebook、苹果和谷歌不是出版商或广播公司,因此,一系列保护儿童或向艺术家付费的法律都不应适用。亚马逊和特斯拉在工作条件方面将雇主的概念推向了极限。 [60] Uber声称自己不是一家受雇用法或出租车法规约束的出租车公司。 [61] 自由决定论作为科技行为的基本标准,已经开始将数千年来基于社会正义的法律降级为技术独裁者的道德选择。
四、结论
最大的挑战不在人工智能及其控制人的问题,而在于如何应对它的公共治理。在技术变革方面,政府历来都持谨慎态度。伊丽莎白一世拒绝了针织机专利的授予,因为她担心这会剥夺她贫穷国民的就业机会。 [62] 我们的目标应该是最大限度地减少人工智能对人类的伤害,并最大化人类的收益,而我们的公共治理系统的反应对于实现这一个目标至关重要。然而,在英国和美国放松管制和自我监管已成为民族主义人工智能战略的关键部分。在过去的几年里,作为脱欧后民族主义技术友好战略的一部分,英国一直在悄悄放松管制,以促进人工智能的发展。 [63] 英国特别允许科技公司在其脱欧后的工业数字化战略中发挥带头作用,由Facebook人工智能副总裁Jérôme Pesenti共同撰写的第二份英国人工智能特定报告继续宣扬迫切助推的主旨。这两份报告都很少关注本文提出的问题,因此,英国现在成为欧洲放松管制的人工智能创业热潮中心。 [64] 美国自商业互联网出现以来也采取了对科技公司的友好立法,其于1996年出台的《正派通信法案》( Communications Decency Act of 1996 )第230条也是为了保护新兴的美国互联网公司,赋予它们在网站上发布的内容拥有广泛的法律豁免权。
人工智能的总体影响比最初预见它会损害传统出版业的利益、助长极端内容、免除Facebook和谷歌等强大的美国公司对内容的法律和道德责任 [65] 的问题更大。特朗普在技术领域通过联邦通信委员会(Federal Communications Commission)任命的人员和行政命令, [66] 推行了一项非常成功的放松管制的议程,结束了网络中立,并允许行业自我监管。 [67] 人工智能的监管将继续成为21世纪最迫切的问题之一。
[1] Alan Dignam.Artificial Intelligence,Tech Corporate Governance and the Public Interest Regulatory Response. Cambridge Journal of Regions,Economy and Society ,Vol.13,No.1,2020,pp.37—54.
[2] Yampolskiy R.and Fox.Artificial intelligence and the human mental model.in A.Eden,J.Moor,J.Soraker and E.Steinhart eds. In the Singularity Hypothesis:A Scientific and Philosophical Assessment .Berlin:Springer,2013,pp.129—145.
[3] Russell S.and Norvig P. Artificial Intelligence:A Modern Approach .NJ:Prentice Hall,2003.
[4] Broussard M. Artificial Unintelligence. Cambridge.MA:MIT Press,2018,pp.1—39.
[5] Ram,A.Europe's AI start-ups often do not use AI. Financial Times ,5 March.https://www.ft.com/content/21b19010-3e9f-11e9-b896-fe36ec32aece.
[6] Bimber B.Karl Marx and the Three Faces of Technological Determinism. Social Studies of Science ,Vol.20,1990,pp.333—351.
[7] Taplin J. Move Fast and Break Things .New York:Little Brown,2017.
[8] Mirowski P. Machine Dreams .Cambridge,UK:CUP,2002; Supiot A. La Gouvernance par les Nombres .Paris:Fayard,2015.
[9] LeFevre R.Autarchy vs anarchy. Rampart Journal of Individualist Thought ,Vol.1,1965,pp.30—49.
[10] Graham C.Factories in space, The Telegraph ,June 2.https://www.telegraph.co.uk/technology/2016/06/01/factories-in-spaceamazon-founder-jeff-bezos-unveils-vision-for/.
[11] Pinch T.and Bijker W.The Social Construction of Facts and Artefacts:or How the Sociology of Science and the Sociology of Technology might Benefit Each Other. Social Studies of Science ,Vol.14,1984,pp.399—441.
[12] Broussard M. Artificial Unintelligence .Cambridge,MA:MIT Press,2018,pp.1—39.
[13] Broussard M. Artificial Unintelligence .Cambridge,MA:MIT Press,2018,pp.1—39.
[14] Garcia M.Racist in the Machine:the Disturbing Implications of Algorithmic Bias. World Policy Journal ,Vol.33,2016,pp.111—117.
[15] Twine F.Technology's Invisible Women:Black Geek Girls in Silicon Valley and the Failure of Diversity Initiatives. International Journal of Critical Diversity Studies ,Vol.1,2018,pp.58—79.
[16] Buolamwini J.and Gebru T.Gender shades:Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research ,Vol.81,2018,pp.1—15.
[17] Bolukbasi T.,Chang K.,Zou,J.,Saligrama,V.and Kalai A.Man is to Computer Programmer as Woman is to Homemaker?in D.Lee,M.Sugiyama,U.Luxburg,I.Guyon and R.Garnett eds. Advances in Neural Information Processing Systems ,Vol.29,2016,pp.4349—4357.
[18] Garcia M.Racist in the Machine:the Disturbing Implications of Algorithmic Bias. World Policy Journal ,Vol.33,2016,pp.111—117.
[19] Rushe D.Siri's Abortion Bias Embarrasses Apple. The Guardian ,1 December.https://www.theguardian.com/technology/2011/dec/01/siri-abortion-appleunintenional-omissions.
[20] Broussard M. Artificial Unintelligence .Cambridge,MA:MIT Press,2018,pp.1—39;Chouldechova A.Fair Prediction with Disparate Impact:A Study of Bias in Recidivism Prediction Instruments. Big Data ,Vol.5,2017,pp.153—163.
[21] Dastin J.Amazon Scraps Secret AI Recruiting Tool. Reuters ,October 10,2018,https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazonscraps-secret-ai-recruiting-tool-that-showed-biasagainst-women-idUSKCN1MK08G.
[22] Burn-Murdoch J.The problem with algorithms:magnifying misbehaviour. The Guardian ,14 August,2013,https://www.theguardian.com/news/datablog/2013/aug/14/problem-with-algorith ms-magnifyingmisbehaviour;Marr B.The Amazing Ways Unilever Uses Artificial Intelligence. Forbes ,12 December,2018,https://www.forbes.com/sites/bernardmarr/2018/12/14/the-amazing-ways-howunilever-uses-artifici al-intelligence-to-recruittrain-thousands-of-employees/#3e7b38436274.
[23] Angwin J.,Larson,J.,Mattu,S.and Kirchner,L.Machine Bias. ProPublica ,23 May,2016,https://www.propublica.org/article/machine-bias-risk-assessments-in-criminalsentencing;Burgess,M.UK Police are Using AI to Inform Custodial Decisions. Wired ,1 March,2018,https://www.wired.co.uk/article/policeai-uk-durham-hart-checkpoint-algorithm-edit;New Statesman/IBM.AI in the Public Sector:Understanding the Barriers and Benefits. New Statesman .https://www.newstatesman.com/sites/default/files/ns_ibm_supplement_june_2018_1_.pdf.
[24] Frischmann B.and Selinger E. Re-engineering Humanity .Cambridge,UK:CUP,2018.
[25] Sarle W.Neural Networks and Statistical Models,in Proceedings of the Nineteenth Annual SAS Users Group International Conference. 1994,pp.1538—1550.
[26] Voosen P.How AI Detectives are Cracking Open the Black Box of Deep Learning. Science ,6 July.https://www.sciencemag.org/news/2017/07/how-ai-detectives-are-crackingopen-black-box-deep-learning.
[27] Hossenfelder S. Lost in Math:How Beauty Leads Physics Astray .New York:Basic Books,2018.
[28] Zerilli J.,Knott,A.,Maclaurin,J.and Gavaghan,C.Transparency in Algorithmic and Human Decision-Making:Is there a Double Standard? Philosophy & Technology ,Vol.32,2018,pp.661—683.
[29] National Transportation Safety Board. Preliminary Report HWY18MH010 .Washington,DC:NTSB,2018.
[30] Stilgoe J.and Winfield A.Self-Driving Car Companies Should not be Allowed to Investigate Their Own Crashes. The Guardian ,13 April.2018,https://www.theguardian.com/science/political-science/2018/apr/13/self-driving-carcompanies-should-not-be-allowed-to-investigatetheir-own-crashes.
[31] Bryan C.Amoral Machines Or How Roboticists Can Learn to Stop Worrying and Love the Law. Northwestern University Law Review ,Vol.11,2017,pp.231—250.
[32] Taylor M.Self driving Mercedes will Prioritise Occupant Safety over Pedestrians. Car and Driver ,7 October 2016,https://www.caranddriver.com/news/a15344706/selfdriving-mercedes-will-prioritize-occupant-safetyover-pedestrians/.
[33] Knight W.Forget Killer Robots:Bias is the Real AI Danger. MIT Technology Review ,3 October,2017,https://www.technologyreview.com/s/608986/forget-killerrobotsbias-is-the-real-ai-danger/;Madrigal A.What Facebook did to America. The Atlantic ,12 October,2017,https://www.theatlantic.com/technology/archive/2017/10/what-facebook-did/542502/.
[34] Garcia M.Racist in the Machine:the Disturbing Implications of Algorithmic Bias. World Policy Journal ,Vol.33,2016,pp.111—117.
[35] Heffernan V.Amazon's Prime Suspect. The New York Times ,6 August,2010,https://www.nytimes.com/2010/08/08/magazine/08FOB-medium-t.html.
[36] Brush S.,Schoenberg,T.and Ring S.How a Mystery Trader with an Algorithm May Have Caused the Flash Crash. Bloomberg News .https://www.bloomberg.com/news/articles/2015-04-22/mystery-traderarmedwith-algorithms-rewrites-flash-crash-story.
[37] Bogdanich W.Radiation Offers New Cures,and Ways to do Harm. The New York Times ,23 January,2018,https://www.nytimes.com/2010/01/24/health/24radiation.html.
[38] Topham G.Ethiopian Flight 302:Second New Boeing 737 to Crash in Four Months. The Guardian ,10 March,2019,https://www.theguardian.com/world/2019/mar/10/ethiopian-flight-302-second-new-boeing-737-max8-to-crash-in-four-months.
[39] Sharman J.Metropolitan Police's Facial Recognition Technology 98% Inaccurate. The Independent ,13 May,2018,https://www.independent.co.uk/news/uk/home-news/met-police-facial-recognition-success-southwales-trial-home-office-false-positive-a8345036.html.
[40] Marr B.The Amazing Ways Unilever uses Artificial Intelligence. Forbes ,12 December,2018,https://www.forbes.com/sites/bernardmarr/2018/12/14/the-amazing-ways-howunilever-uses-artifici al-intelligence-to-recruittrain-thousands-of-employees/#3e7b38436274.
[41] MMC Ventures.The State of AI Divergence,Chapter 8. MMC Ventures .https://www.stateofai2019.com/.
[42] Gibbs S.Google Buys Two more UK Artificial Intelligence Startups. The Guardian ,23 October,2014,https://www.theguardian.com/technology/2014/oct/23/google-uk-artificialintelligence-startu ps-machine-learning-darkblue-labs-vision-factory.
[43] Slaughter A.M.What will Really Determine the Winner of the U.S.-China Rivalry Over A.I.? Slate ,12 March,2019,https://slate.com/technology/2019/03/united-states-chinarivalry-artificial-intelligence.html.
[44] Isaac M.How Uber Deceives the Authorities Worldwide. The New York Times ,3 March,2017,https://www.nytimes.com/2017/03/03/technology/uber-greyballprogram-evade-authorities.html.
[45] Molla R.and Schliefer T.Here's who Controls Uber. Recode ,8 January,2018,https://www.recode.net/2018/1/8/16865598/uber-softbank-control-board-power-stocks benchmark-travis-kalanick-dara-khosrowshahi.
[46] Brooker K.The Most Powerful Person in Silicon Valley. Fast Company ,14 January,2019,https://www.fastcompany.com/90285552/the-most-powerful-person-in-silicon-valley; Inagaki,K.,Lewis,L.and Massoudi,A.Masayoshi Son:the unrepentant visionary. The Financial Times ,22 July,2016,https://www.ft.com/content/7b2da318-4f2d-11e6-8172-e39ecd3b86fc.
[47] Armour J.,Black B.,Cheffins B.and Nolan R.Private Enforcement of Corporate law. Journal of Empirical Legal Studies ,Vol.6,2009,pp.687—722.
[48] Cao S.Tesla has Lost Over 40 Execs in a Year. The Observer ,20 February,2019,https://observer.com/2019/02/elon-muskdane-butswinkas-tesla-general-counsel-resigns/.
[49] Masulis R.,Wang C.and Xie F.Agency Problems at Dual-Class Companies. Journal of Finance .https://ssrn.com/abstract=1080361.
[50] Shane S.and Wakabayashi D.The Business of War. The New York Times ,4 April,2018,https://www.nytimes.com/2018/04/04/technology/google-letter-ceo-pentagon-project.html;Wakabayashi D.and Benner K.How Google protected Andy Rubin,the “Father of Android”. The New York Times ,25 October,2018,https://www.nytimes.com/2018/10/25/technology/google-sexual-harassment-andy-rubin.html.
[51] Conger K.Google Removes “Don't Be Evil” Clause from its Code of Conduct. Gizmodo ,18 May,2018,https://gizmodo.com/googleremoves-nearly-all-mentions-of-dont-be-evilfrom-1826153393.
[52] Koebler J.Elon Musk and Larry Page have the World's Weirdest Friendship. Motherboard ,25 May,2015,https://motherboard.vice.com/en_us/article/bmj4zz/elon-musk-andlarry-page-have-the-worlds-weirdest-friendship;Marinova P.Uber CEO Travis Kalanick and Mark Zuckerberg Celebrate Friend's Birthday at “Babes and Balls” Party. Fortune ,10 March,2017,http://fortune.com/2017/03/10/uber-ceo-travis-kalanick-babes-balls/.
[53] Hern A.Partnership on AI Formed by Google,Facebook,Amazon,IBM and Microsoft. The Guardian ,https://www.theguardian.com/technology/2016/sep/28/googlefacebook-amazon-ibm-microsoft-partnership-onai-tech-firms.
[54] Boorsook P. Cyberselfish:a Critical Romp through the Terribly Libertarian Culture of High-Tech .New York:Public Affairs,2000.
[55] Broussard M. Artificial Unintelligence .Cambridge,MA:MIT Press,2018,pp.1—39;Newcomb A.Tim Cook,Ginni Rometty Join Trump's Panel on AI and Workforce Automation, Fortune ,14 February,2019,http://fortune.com/2019/02/13/tim-cook-ginni-romettyjoin-president-trumps-panel-on-workforceautomation/;Yamazaki M.SoftBank CEO Masayoshi Son:Trump's Promised Deregulation is Going to be Good for Business. Business Insider ,8 February,2017,https://www.businessinsider.com/r-softbanks-son-says-trumps-promisedderegulation-will-help-his-business-2017-2?r=US&IR=T.
[56] Gallagher S.Larry Page Wants you to Stop Worrying and Let him Fix the World. Ars Technica ,20 May,2013.https://arstechnica.com/information-technology/2013/05/larry-pagewants-you-to-stop-worrying-and-let-him-fix-theworld/.
[57] Streeter T.The Deep Romantic Chasm:Libertarianism,Neoliberalism and the Computer Culture,in J.Lewis and T.Miller eds. Critical Cultural Policy Studies ,Malden:Basil Blackwell,2003,pp.161—171.
[58] Yeomans E.Tech Giants Build Army of Lobbyists to Fight off Tougher Regulations. The Sunday Times ,23 October,2018,https://www.thetimes.co.uk/edition/news/tech-giantsbuild-army-of-lobbyists-to-fight-off-tougherregulations-2qq39v0vj.
[59] Simonite T.Tesla's Dubious Claims about Autopilot's Safety Record. MIT Technology Review ,6 July,2016,https://www.technologyreview.com/s/601849/teslas-dubiousclaims-about-autopilots-safety-record/.
[60] Hall G.Elon Musk Disputes Union Claims. Silicon Valley Business Journal ,27 February,2017,https://www.bizjournals.com/sanjose/news/2017/02/27/elon-musk-teslafremont-factory-uaw-tsla.html;Johnson I.Amazon:Devastating Expose Accuses Internet Retailer of Oppressive and Callous Attitude to Staff. The Independent ,17 August,2015,https://www.independent.co.uk/news/business/news/amazon-devastating-expose-accusesinternet-retailer-of-oppressive-and-callous-attitudeto-staff-10458159.html.
[61] Butler S.Uber Stripped of London Licence Due to Lack of Corporate Responsibility. The Guardian ,23 September,2017,https://www.theguardian.com/technology/2017/sep/22/uberlicence-transport-for-london-tfl;O'Connor S.Uber Loses Appeal in UK Employment Case. The Financial Times ,10 November,2017,https://www.ft.com/content/84de88bc-c5ee-11e7-a1d2-6786f39ef675.
[62] Acemoglu D.and Robinson J. Why Nations Fail:The Origins of Power,Prosperity and Poverty .New York:Random House,2012,p.182.
[63] Perkins A.Government to Review Law before Self-Driving Cars Arrive on UK Roads. The Guardian ,6 March,2018,https://www.theguardian.com/technology/2018/mar/06/self-driving-cars-in-uk-riding-on-legal-review.
[64] MMC Ventures.The State of AI Divergence,Chapter 8, MMC Ventures .https://www.stateofai 2019.com/.
[65] Selyukh A.Attorneys General Zoom in on Tech Privacy and Power. NPR ,25 September,2018,https://www.npr.org/2018/09/25/651472693/attorneys-generalzoom-in-on-tech-privacy-and-power.
[66] Knight W.Trump has a Plan to Keep America First in Artificial Intelligence. MIT Technology Review ,10 February,2019,https://www.technologyreview.com/s/612926/trump-willsign-an-executive-order-to-put-america-first-inartificial-intelligence/.
[67] Davis Noll B.and Dawson A.Deregulation Run Amok.Institute for Policy Integrity.https://policyintegrity.org/files/publications/Deregulation_Run_Amok_Report.pdf;Schuleman D.The FCC Restoring Internet Freedom Order and Zero Rating. Journal of Law.Technology & Policy ,Vol.1,2018,pp.149—166;Wheeler T.Government Shutdown Halts the Trump FCC's Deregulation Agenda. Brookings Institute ,22 January,2019,https://www.brookings.edu/blog/techtank/2019/01/22/government-shutdown-halts-the-trump-fccsderegulation-agenda/.