写在前面
人工智能伦理与监管的重点问题
21世纪以来,新一代人工智能得到了广泛应用,人工智能技术迅速在图像和语音识别、机器翻译、自动驾驶等复杂的现实场景中得到了飞速发展,已经不断嵌入社会各领域,深刻改变了人类的生活、生产方式、组织形式和社会结构。但与此同时,人工智能作为一种新兴技术也对人类的生存、发展造成了严峻的挑战。艾萨克·阿西莫夫(Isaac Asimov)提出了著名的“机器人学三定律”既是规范新技术的重要准则,也为人工智能技术发展提供了基本思路。一种简单的想法是,将伦理和法律简化为几个基本原则,并以人工智能可理解的方式编码输入到人工智能系统中,以实现对人工智能的伦理控制。但在现实中,人工智能的伦理与法律问题实际上复杂得多,需要形成从原则到规则的具体方案。
技术发展中的“科林格里奇困境”同样反映在人工智能的伦理问题中,即新技术的社会后果难以在技术生命的早期被有效预测,在其能够被预测时往往技术已成为整个经济和社会结构的一部分,难以进行控制。对此,科林格里奇提出了两种应对模式:一是预测和避免损害;二是确保相关决策的灵活性或可逆性,具体包括预防原则和精明无为两种方式。
目前,国际组织、国家以及社会各界普遍关注人工智能伦理问题,并形成了一系列的伦理框架与原则共识,具体包括可控性、透明度、安全、负责任、非歧视和隐私保护等六大方面,这主要反映了应对科林格里奇困境的第一种方案。由于人工智能的威胁还尚不直接,且各国之间存在着激烈的人工智能技术竞争,全面禁止人工智能研究是不现实的,故暂时只能提出模糊的原则防止人工智能带来的威胁。在具体的监管落实方案上,欧盟、美国与中国作为当前全球人工智能发展中的“主导性数字力量”,给出了区别答案。欧盟《人工智能法》以人权和个人信息保护为立法主题,提供了基于风险的人工智能监管框架,以减少人工智能技术的生产者与消费者之间的信息不对称问题,并防止人工智能可能造成的损害,为欧盟的人工智能监管提供了必要性。美国则采用了市场化的进路,拒绝对人工智能进行广泛的监管,在监管对策上较为宽松,以防止人工智能监管限制创新或对市场造成扭曲。中国则更加关注政府在支持人工智能发展中的重要作用,将人工智能确立为政府的重要发展目标,人权和市场均不是中国人工智能规则的关注核心。上述差异反映了人工智能伦理规则和监管方案上的共识还有待达成。
以下是未来人工智能伦理规则发展的重要关注方向。
首先,多元化的人工智能监管目标需要得到关注。人工智能监管不仅包括促进市场发展的目标,而且包括实现国家和社会政策、促进创新、保护公民权利、增强国际竞争力、保障国家安全等多重目的,反映为技术、市场和道德等多重考量。虽然各国在人工智能监管上的具体方案不同,但是共识是人工智能监管以继续发展人工智能技术为前提,这意味着监管需要统筹发展与安全,使赋能与规制并重。
其次,预防原则和精明无为可以构成人工智能监管新的方案。预防原则主要反映在环境法领域,但对于人工智能也同样适用,即在某些严重的风险成为现实或可量化之前,应当采取预防措施,禁止或严格限制人工智能的发展,这为人工智能技术划定了伦理红线。精明无为构成人工智能监管的另一种策略,尽管精明无为也是一种不作为,但不同于被动地任由人工智能技术发展,精明无为意味着政府需要积极地监测和参与新兴市场及其参与者,并“静观其变”。除形成一系列伦理原则外,鼓励行业协会等非政府主体进行治理和发挥司法的主观能动性可以作为精明无为的另一种具体方案,以适应人工智能实践的发展。
最后,负责任构成人工智能伦理监管的核心要求。人工智能监管不仅需要从结果上防范人工智能带来的具体风险和决策准确性问题,而且需要保障人工智能决策的责任由人类承担,这是对人工智能监管的伦理要求。人工智能的负责任监管要求至少具有一定程度的透明度和可控性,并且对人工智能应用于公共决策提出了更严格的要求。
人工智能治理与监管已呈现条约化、义务化和硬法化的趋势。例如,澳大利亚和新加坡签署的《数字经济协定》规定,缔约双方关于“人工智能”的相关共识,包括双方应通过相关的区域和国际论坛,合作并促进框架的开发和接受,以支持可信、安全和负责任地使用人工智能技术,在制定此类人工智能治理框架时,考虑国际公认的原则或指导方针。与此相类似的还有智利、新西兰、新加坡和中国签署的《数字经济伙伴关系协定》,以及欧洲委员会开放签署的《人工智能与人权、民主和法治框架公约》等国际条约。人工智能相关国际条约的出现既有助于缓解国内法的冲突、协调各国人工智能监管需求,也为人工智能的全球治理提供了法律依据,代表着人工智能监管的发展方向。
沈伟
陈徐安黎
2025年1月25日