二 文献综述
人工智能的持续发展和普遍应用为人类的生产生活提供了诸多便利,人工智能技术与信息传播的深度融合在逐渐催生人工智能传播这一新兴传播形态的同时,也诱发了不容忽视的伦理风险。同时,针对伦理风险的治理实践也在积极拓展中。
(一)国外研究动态
人工智能时代的传播伦理与治理,正在成为国外学者跟踪研究的重要领域。在智能传播过程中,有很多方面的因素会引发算法的伦理风险。一是Møller提出的算法技术所固有的缺陷和偏差,这些缺陷和偏差会带来系统性错误的风险 [2] 。二是Gran等提出的歧视性偏见,比如数据驱动算法决策系统的信息不透明所引发的算法决策的歧视问题和数字鸿沟 [3] 。具体来说,导入数据的权重、借助共享数据推断用户喜好引起的偏差等都会带来算法决策的歧视问题,而智能传播中的信息不对称和缺乏透明度等问题则会进一步衍生出数字鸿沟现象,影响用户数据素养的提升。三是Rolandsson等提出的人工智能技术对于用户个人隐私权利侵害的风险,因为基于数据共享理念,数据主体的信息在未经授权的情况下就被使用,其本质是对用户隐私的侵犯。 [4] 诸如此类由人工智能技术所引发的伦理风险层出不穷。DeVries认为,其部分原因是人们对人工智能技术应用可能出现的道德陷阱的评估是滞后的 [5] ,这种滞后性主要体现在三个方面:第一,人工智能数据选择的偏差可能会因片面选择用户群体而导致不准确的结果;第二,用户数据的所有权规定因国家和领域而异,人工智能模型的成像数据从一种设置可能很难推广到其他设置;第三,人工智能算法使用图像数据进行识别可能会无意中暴露受保护的用户隐私信息。
因此,为了防范智能技术应用可能带来的伦理风险,Wendell和Colin等人从技术和外部规制两方面出发提出了相应的治理对策。从技术角度,人工智能系统能够独立于人类做出自己的决定。学者把允许道德选择的人工智能系统称为人工道德行为体。
[6]
在可预见的未来,人工智能的最终责任仍然留给它的人类设计者和操作者,因此我们可以通过强化大数据行为分析领域中主体研究人员的伦理教育来降低大数据研究项目中的伦理风险,在智能技术的研发团队与不同学科的学者之间的沟通对话中增强智能程序设计主体的道德想象力
,以此优化机器人运行程序中的人工智能伦理和机器行为道德规则。通过“自上而下”的路径、“自下而上”的路径和“混合”路径来建构人工智能道德选择的模型
[7]
,最终打造出可解释的人工智能技术(XAI)来应对伦理风险。可解释的人工智能技术有三个维度的特征,一是可即时追溯的人工智能技术,即识别实时信息的能力,可以从数据信息的特征追溯至算法程序的本质;二是科学理性的人工智能技术,即可以追查每个预测背后的推理;三是Moran和Shaikh提出的,可被分析的人工智能技术,即基于模型做出科学合理的智能决策
[8]
。同时,从外部规制角度出发,Stray认为,除了强调人工智能技术的升级以外,政府适当的监管和调节也会对此类智能传播风险的抑制起到一定的积极作用
[9]
。此外,Cloudy等认为,一方面,政府应当为人工智能制定伦理实践准则,促进智能技术的普及和应用,这就要求其秉持促进人类福祉的原则去调整人工智能伦理的标准和研究新的伦理要求
,从而努力使人工智能伦理的实践效果最大化;另一方面,Guzman和Lewis提出,政府还应该出台相关的法律法规,去规制用户数据、算法以及实践等多方面可能存在的伦理问题
[10]
,以此通过顶层设计促进民生福祉的改善和产业的健康发展;同时把握新一轮技术革命的主动权,抓住人工智能战略发展机遇期,构建人工智能发展的竞争优势,尽快打造智能社会,用人工智能技术造福人民
[11]
。
纵观国外相关研究,大部分学者都基于技术伦理理论对人工智能传播伦理风险治理问题进行探讨,对于当前人工智能传播存在的伦理风险及其治理路径的研究已经达到一定的学术高度,为本课题奠定了坚实的学术基础。
(二)国内研究动态
下文主要从人工智能传播的伦理基础、人工智能传播伦理问题的生成逻辑、人工智能传播伦理的风险表现、人工智能传播中的数据伦理与治理、人工智能传播中的算法伦理与治理、人工智能传播伦理的生态治理、人工智能传播伦理治理的路径选择以及人工智能传播伦理治理的价值审度等方面对国内的研究进行综述。
1.人工智能传播的伦理基础
人工智能技术对现代社会发展影响深远,它使传统意义上的传播由时空偏向的信息传播模式转为兴趣偏向的信息传播模式。但在大数据时代,人们保护隐私和信息安全的独立空间被压缩,网络空间歧视性的信息泛滥,版权纠纷问题层出不穷,这些都要求采用切实有效的治理手段进行规范和制约。
孙田田认为,伴随着人类社会的不断进步,社会形态逐渐由工业化转向智能化。智能社会作为智能革命的产物,是一个全面智能化的社会形态,它主要有三大特征,分别是社会发展的大数据驱动化、社会制造的全面智能化以及社会结构的扁平化
。在此基础上,成素梅进一步提出,相较于工业文明注重实现人的物质文化的丰足而言,智能文明更加强调实现人类精神生活的充盈,这是一种从赋能到赋智的精神文明的转变
。
智能技术的应用给人类社会带来了深刻的变革,它在医疗、教育、航空等领域建构起了全新的业态环境。我们可以从微观、中观、宏观层面来看人工智能对创新生态系统的变革和演化所产生的影响。李泽晨认为,在微观层面上,人工智能技术淘汰了一批传统产业和岗位,调整了就业结构;在中观层面上,人工智能技术改变了企业原有的管理和运营模式,促进了市场高效、智能化运行和发展,优化了资源配置,提高了生产效率;在宏观层面上,人工智能技术推进产学研平台的各个环节实现精准配对和个性化订制
。然而,智能技术的发展具有双面性,它在解放社会劳动力的同时,也给人类社会带来了严峻的挑战,主要体现在三个方面:一是大数据驱动对传统认识论的挑战;二是分布式的认知对传统责任观的挑战;三是人工智能对道德判断的挑战。具体来说,智能化社会的发展使得人们将个人数据信息的删除、遗忘和更改的权利让渡于市场
。王韫和徐迎庆认为,这种权利的让渡使得人工智能技术应用在社会结构、实践和先知偏见等三方面因素的共同作用下存在着一定的数据偏见
。而这种由大数据驱动的偏见在分布式认知的基础上会于无形之中被加剧放大。分布式认知即认知主体从单个的人变为分布式、去中心化的群体,这就进一步导致了问责难的问题,针对单一主体的措施已经无法适应伦理风险的治理需求,因此人们对道德的价值判断也逐渐由个人向社会层面转变
。同时,王东和张振认为,要关注行为主体所存在的伦理规范缺失和态度认知差异的问题、个体要素间所存在的情境变革矛盾的问题,以此避免过度的技术崇拜所导致的技术理性与道德价值理性之间的矛盾,以及资本市场原始积累所带来的伦理主体的法律和道德归责问题。
除此之外,版权和知识产权纠纷此起彼伏、人工智能市场的专业人才培养遭遇瓶颈,以及技术的异化导致用户成为高速运转的智能系统下的技术附庸,种种问题本质上都是对人的主体地位的冲击和挑战,也是未来人工智能技术发展必须面对的困境。
因此,人们亟须深度思考在人工智能技术与信息传播的深度融合过程中,应该如何重塑人文社会—人工智能技术—主体问责机制三者之间的关系,消除原本二元对立的伦理危机,构建一个人与技术和谐共生、动态平衡的人工智能传播伦理生态系统,由此在赋智型社会中,克服人们在赋能型社会由于追求效率所导致的负面问题
。首先,要始终遵循科技造福人类的“科技向善”思维,在系统、全面的视阈下整体认识人工智能技术传播的伦理风险问题,注重发扬“以人为本”的人文主义关怀,不断规范人工智能技术的应用,使其不偏离正轨。其次,要坚持伦理先于技术、无伤害和公平公正的治理原则。夏永红和李建会认为,针对人工智能面临的道德抉择,可以通过“自上而下”路径、“自下而上”路径和“混合式”路径来打造机器伦理。其中“自上而下”的核心思想是:“如果道德原则或规范可以清晰地陈述出来,那么有道德的行动就转变为遵守规范的问题,人工道德行动者需要做的就是去计算它的行为是否由规则所允许。”“自下而上”的路径强调人工智能自主性,认为其可以通过机器学习以及自身适应系统的演进在具体的伦理情境中生成一套具有高度适应性的伦理原则。相比“自上而下”的路径,它强调通过对数据集的后天训练生成精准的推理机制。“混合式”路径是将前者的规则驱动和后者的技术驱动相结合的综合方式。三种伦理机制都需要算法设计者敏锐的道德感受力和广阔的伦理视野
。再次,要强化技术人员的责任和道德意识,推进平台人工智能伦理规范体系的完善与建构。设计者和操作者需要将反思性、响应性、审慎性和预判性等几个要素作为人工智能设计决策的责任框架,把产品是做什么的、流程是怎样的、目的是什么和涉及哪些主体等作为人工智能设计决策的逻辑要点,从而实现无障碍、广泛性、包容创新性的设计前景,将价值判断嵌入设计环节,不断优化人工智能产品的产品性能,造福于民
。最后一点也是最关键的一点,构建新型的友好人机协同关系是整个人工智能伦理规范治理中的关键一环,在此过程中需要不断推进人类智能和人工智能相互协调、良性互动,通过构建理想的人机协同关系来应对未来的智能技术伦理风险。要造负责任的人工智能,一是进一步促进智能技术进步;二是推进社会的可持续发展;三是提高用户的生活质量,更好地保护人类社会;四是促进社会的公平正义与和谐稳定;五是盘活市场经济,促进良性竞争。基于以上几点推进良性循环的智能传播生态环境的发展。
各类文献主要探讨了人工智能传播运行应该具备的伦理准则,有些是从技术维度出发,而有些是从社会维度出发,揭示了人工智能传播伦理系统结构的构成。从微观到宏观,相关研究比较充分地分析了人工智能传播的伦理基础,为本研究奠定了思想基础。
2.人工智能传播伦理问题的生成逻辑
数据和算法分析在为人类的生产生活提供技术支撑的同时,也诱发了诸多数据伦理和算法伦理问题,可能会影响社会的稳定和公平。杨丽娟和耿小童认为,当前的人工智能技术面临着监管缺位、现有体系滞后、算法霸权、伦理关系失调等风险。首先是监管缺位。伦理问题与法律问题之间具有关联性和递进性,但是目前人工智能技术的应用缺乏相关的法律法规的约束和保障
。吴戈以人工智能时代自主决策和学习的典型代表——无人驾驶汽车为例,分析目前无人驾驶汽车在发展过程中可能出现的风险,诸如责任主体不明确、失业和隐私安全等。针对这些伦理困境,我们需要及时确认基本的伦理原则,并针对实践环节存在的伦理漏洞进行道德引导和价值规范,通过制定相关的法律法规来保障人类的安全与利益。
其次是现有体系滞后。人工智能在释放巨大潜能、产生经济价值和带动广泛的产业变革的同时,也带来了诸多风险,然而现有治理体系难以适应人工智能的高度开放性和不确定性,无法满足风险治理需求。孙丽文和李少帅认为,人工智能技术应用引发的新兴风险治理议题超越了既有治理体系范围,传统风险治理体系亟须向以伦理嵌入为关键支撑的新兴风险治理体系迁移
。杨丽娟和耿小童从具体的无人驾驶汽车引发的伦理风险争议出发,结合无人驾驶汽车技术在实践领域引发的一系列问题,提出无人驾驶汽车的发展过程具备风险性,如在运行过程中需要获取用户的信息,使用户置身于透明化、开放化的境地。
经典道德责任论认为,人工智能体不具备情感意识和本我认知,因此不能为伦理风险引发的各类事故承担责任;但在实践中人工智能体仍然有依靠责任意识执行当前任务的可能,因此其在面对传播伦理风险时依然需要自主承担道德能动者的责任
。目前对伦理规制的重建和公共价值体系的再价值化显得尤为必要。再次是算法霸权。孙伟平认为,伴随传播媒介特质的变化,算法的技术壁垒使网络信息传播往往存在平台方的价值导向,信息控制和信息操纵成为社会的热点话题
。同时,智能技术的工具理性和人类社会推崇的价值理性之间存在着不平衡。从行为层面来看,工作人员的道德主体身份具有隐蔽性,当其出现越轨行为时难以追责,而人工智能算法的偏差会导致社会治理盲区。最后是伦理关系失调。谭九生和杨建武认为,在外部规制缺位或滞后的情况下,由算法霸权所衍生的伦理问题滋长。除了人工智能传播伦理风险,人工智能技术风险的建构性、当前人类对风险认知的局限性等都是导致伦理风险进一步扩大的重要因素
。
虽然人工智能技术的应用会不可避免地带来许多潜在的伦理风险和社会问题,但当我们理性地审视这些可能的风险时,就会发现人工智能在从利益驱动到技术推动发展的过程中,这些风险并非不可控制。总的来说,我们可以采取体系化的应对方式,从技术治理、道德约束、强制登记与保险制度以及立法监管等方面出发,有效地处置甚至系统地化解人工智能的危害。例如,对于无人驾驶汽车的法律缺位问题,可以从制定无人驾驶技术应用准则、保证程序合法正当、建构风险防控机制以及将技术和理念相结合等方面来应对。对于人工智能的道德责任问题,我们可以赋予其“拟主体”的角色和地位,让人工智能体作为道德能动者,成为能够自主决策和进行价值判断的“拟主体”。简小烜认为,我们要将人工智能体在本质上与人类道德主体区别开来,认识到二者在认知、行动和决策等方面的不同之处,进一步发挥人工智能体作为二阶道德能动者的智能
。对于伦理关系失调的问题,可以从伦理嵌入视角出发,在数据采集阶段按照行业标准对输入的数据集做好数据筛查、数据清洗以及数据格式化的工作,避免数据偏见带来算法决策不公平的问题;在数据开发阶段摒弃过度攫取数据的霸权观念,依照市场机制和行业标准采之有度;数据开发平台要借助技术上的先发优势主动履行伦理风险治理的主体责任,严格自律;互联网平台应坚守广告开发与数据信息使用的职业伦理与道德规范,切实遵守规范对广告主、用户个人数据信息进行存储、管理与开发,完善技术保护体系,由此做到自身经济利益与平台用户个人利益兼顾,为维护社会的信息安全与长久发展夯实基础
。
以上文献从不同维度探讨了人工智能传播伦理问题的生成逻辑。学者们基于开阔的视野,从技术、社会以及制度等各个层面解构了人工智能传播伦理问题生成的隐蔽性、复杂性和广泛性。可以看出,已有文献还存在不够深入、不太全面的缺陷,研究亟待深入拓展。
3.人工智能传播伦理的风险表现
数据和算法分析在为人类的生产生活提供技术支撑的同时也诱发了诸多数据伦理和算法伦理问题,可能会影响到社会的稳定和公平。在数据的开发阶段,一些犯罪分子可能会窃取他人的隐私数据开展犯罪活动,如通过暗网进行非法人口交易;在数据的应用阶段,不加约束的算法系统可能会对特定的群体产生算法偏见。
柯泽和程伟瀚认为,5G技术进一步重塑了人工智能时代的发展格局,VR、AR技术在传播领域的广泛应用也给平台网络用户以及新闻工作者带来了极大的便利
。杜森进一步提出,这种伴随智能技术进步所带来的人、机与自然关系的转变,工业经济、生活方式的智能化与人类思维认知的智能化等多个层面的变化被学者称为人的技术化现象
。目前,人工智能技术主要被应用于深度决策、自动推理和自然语言处理、专家决策等方面,但也存在技术应用困难、深度伪造等问题。夏鸿飞认为,这些问题和风险的出现与技术局限性、人类道德主体的认识局限性、法律法规和治理机制以及人工智能传播伦理监督机制尚不完善等因素密切相关
。就技术应用而言,在现实生活中,制造业、智慧农业等都是强封闭性的行业,但是现在大部分的人工智能技术项目都不符合强封闭性的原则,由此带来了技术应用的困难。陈小平认为,一方面,人工智能技术应用场景都是人为制造的,它不可能脱离人类主体而独立存在,因此目前的技术风险还没有出现明显的表现形式
;另一方面,人工智能技术的信息误判已经成为人工智能发展应用的严重阻碍。陈昌凤和徐芳依认为,深度伪造技术作为一种合成媒体技术,通过自动化手段删改算法数据,极容易被不法之徒用来盗取用户信息和隐私数据,加剧了短视频传播过程中的隐私泄露风险。
不可否认的是,视觉信息对于人们认识世界发挥了重要的作用,但基于深度伪造技术的数据与信息的真实性正在面临挑战。苗争鸣等人认为,在经济利益和技术崇拜的主导下,深度伪造技术背离为人服务的初衷,对人和社会造成严重影响,从而引发传播伦理风险、社会信任危机、地缘政治冲突以及技术平民化风险。
人工智能技术所带来的仍然是发展不平衡、不全面的民主,媒体在网络舆情发酵过程中失去了主导地位,信息传播媒介引发的人文主义危机不断涌现。例如,柯泽和程伟瀚认为,信息传播媒介引发了新闻编辑、新闻记者的失业危机,信息垄断的局面进一步影响人们对多元信息的正常理解和接受,人工智能技术本身又存在着失控的风险等
。针对这些风险,首先,我们需要对人工智能技术的应用采取理性认知,认识到物联网技术并未爆发、人工智能交互技术还未完全成熟以及定制新闻信息的使用存在风险等
。其次,我们需要在人文主义的引领下,将人文主义和技术理性相结合,把伦理规则嵌入设计环节,重视人的社会性和实践性,通过培养高精尖人才、加强国际跨领域合作来不断提升人工智能技术的发展水平,坚持采用负责任的、公平正义的友好型人工智能技术
。最后,要加强媒体、政府以及互联网平台等多方的合作,建立完备的媒介伦理秩序,实现道德法规、人文伦理和技术应用之间的动态平衡,以此在协同参与中形成多元化、全方位的治理体系,在主观能动性与客观规律性中找到价值的平衡
。
以上文献主要探析了人工智能传播伦理风险的具体表现及其影响,一些学者列举了各类人工智能传播伦理风险表现的内容与形式。例如,人工智能传播领域的深度伪造技术通过自动化手段删改算法数据,构造虚假信息,具有异化传播伦理风险。探析人工智能传播伦理风险表现的研究已经形成了较为成熟的态势。因此,以上对人工智能传播时代信息传播伦理风险的系统化剖析具有较强的借鉴意义。
4.人工智能传播中的数据伦理与治理
隐私问题是数据伦理问题的核心。人工智能技术的发展以大数据的收集为依托,而大数据的收集过程可能存在对用户个人信息的二次利用、非法收集以及泄露和扩散等问题。吴红和杜严勇认为,用户是行走的数据源,在网络上留下的数据脚印会被技术解构、重组为可识别的信息图谱
。刘丽和郭苏建认为,数据技术包括数据的生成,数据的收集,以及数据的分析、应用和整理等几个方面的技术
。李飞翔认为,在当下的数字化生存环境下,每个人在网络空间中的数字身份都潜藏价值,所以大数据在整合和抓取个人信息时很容易泄露个人的相关信息,人们仿佛置身于楚门的世界,在网站和社交媒体上的一言一行都存在被监控的风险
。刘丽和郭苏建指出,数据时代隐私保护的伦理困境主要表现为信息安全、数据霸权、信息鸿沟等诸多伦理风险
。其中,信息安全风险是指用户的数据权利容易受到侵害,技术红利无法公平地分配到每一个体身上。具体来说,用户为了获得各类信息服务而让渡给平台方的部分权利使得个人的数据权利难以界定,这就导致了在数据采集的过程中,部分平台为了降低数据开发的成本,常常未经用户的知情和同意,就对用户各方面的隐私数据进行截取和滥用,这种数据滥用行为在市场的自发性和逐利性的驱使下会越来越多,最终造成数据应用市场的失衡
。数据霸权风险是指在智能传播过程中,平台用户感受到的世界与现实世界存在着信息不对称的问题。从数据来源来看,社会主流意识形态的数据信息充满着复杂性,大数据技术收集相关信息时并不会对信息背后的伦理问题仔细地进行探究和甄别,只能进行简单的清洗和梳理,主流意识中隐含的社会偏见和社会歧视数据仍然会被进一步应用到算法之中。从数据特征来看,大数据算法的基础是“分类”,它从历史数据训练中获取的数据只是符合人类对认知处理的简单化、范畴化倾向的量化数据,该数据来自个体,个体深植于文化内涵之中,文化意识本身带有主观性,这就让社会对于某一群体的歧视与偏见也会不可避免地代入算法程序之中
。颜世健认为,此类数据经由算法推送后会造成用户信息认知的窄化,导致信息茧房风险,并极易引发信息传播中的“洗脑”和“精神控制”问题
,而这将以更为隐蔽的方式放大社会歧视,加剧弱势群体的不利境遇。信息鸿沟与社会公平的理念相悖,此方面的风险则是由社会系统中信息资源的不平衡导致。
针对以上风险,面对大数据时代的社会公平困境,我们首先需要尊重与保护每一个用户的数据权利,既要打造数据共享的开放平台,平衡基础设施建设,也要建立全面、系统的洞察和监管机制,利用法律手段保护用户权益。对此程啸提出,用户个人的数据应该通过私权制度加以保护和规制;自然人对于个人数据可以积极使用,而当个人隐私和其他信息被侵害时应该得到相关法律的保护。
其次需要以社会公平为导向,在人本主义、多元平衡和互惠共生等理念的指导之下,建立友好的人工智能发展路径,促进数据科学与人文社会的良性发展,实现算法设计者、政府、科学共同体、主流媒体、平台方等多元主体对人工智能数据伦理风险的协同治理,通过制定伦理治理原则、加强伦理引导以及技术支持、推动相关立法、保障用户数据可见性和提升算法透明度等对策,最终构建一个人机融合的良好传播生态系统
。例如,可以建立平台与用户的新契约,使数据权利的让渡在权威的信息规范条例下进行;可以量化数据管理过程中的各项用户指标,生成严格的伦理风险评估报告,以此倡导公平正义的新型价值理念。
以上文献主要从人工智能传播中数据伦理的生成逻辑、数据公平、数据安全、数据隐私、数据共享、数据偏见、数据歧视、大数据“杀熟”等现象出发,从数据伦理的理论基础与现实依据,以及数据伦理的治理对策等方面进行深入而全面的探讨,视野开阔,思维缜密,富有创新意识,为人工智能传播中的数据伦理与治理问题研究指明了方向。
5.人工智能传播中的算法伦理与治理
算法伦理风险是指在通过特定的指令和程序对数据进行开发时,产生的不可预见或者潜在的不良后果。算法伦理风险产生的主要原因是算法的不可控性、算法开发和应用过程中的主观价值偏好以及伦理约束机制尚不完善等。算法伦理风险主要表现为算法推荐可能引发的负面诱导、信息茧房、算法偏见以及算法歧视等。
郭林生和李小燕认为,算法伦理作为计算机科学与伦理学相交叉的研究领域,主要研究算法本身的伦理属性以及算法所体现出来的伦理功能
。姜野认为,目前,伴随着算法技术在信用评分、电子商务、医疗卫生和教育等方面的普遍应用,网络对发展过程中的自发拓展机制已经形成了路径依赖,而这一机制中的技术中立论形成的强大惯性不可避免地给社会伦理带来巨大影响
。首先,就信息传播而言,智能算法和机器算法正从宏观、中观和微观三个层面改变着传媒业态,由此引发了一系列的伦理风险,如侵权风险、文化风险和公共舆论风险等。以最为典型的智能算法推荐技术为例,受众所让渡的部分权利加剧了算法技术的滥用,平台企业出于资本的逐利本性将受众置于“全景监狱”的困境之中。匡文波认为,算法推荐技术冲击了专业机构在新闻生产和传播中的主流地位,进而带来了算法偏见、回音室效应和用户的隐私安全问题
。其次,就数据权利而言,姜野认为,由于我国法律对数据市场的范围并未做出清晰的界定,因此在具体的算法实践过程中很容易出现极为隐蔽的对于“数字贫民”等弱势群体的数据权利的侵害和话语权的剥夺
。除以上两种伦理风险以外,由算法技术应用所引发的伦理问题还包括数字鸿沟、信息操纵和算法霸权等。王天恩将人工智能技术应用所引发的伦理问题划分为两种基本类型:一是人工智能发展给人类带来的存在性风险所引发的伦理问题;二是专用人工智能引发的技术性伦理问题。
这两类算法伦理风险产生的原因主要涉及两个方面。一是在算法的开发和应用过程中存在着不可避免的主观偏好。在算法程序的设计过程中,机器学习等人工智能技术通过合适的算法和数据训练可以自主编写代码,执行常见的信息服务指令,但是由于缺乏对人类社会价值判断和文化内涵的深层分析,这些人工智能技术常常会超乎算法和平台设计者的伦理规制,衍生伦理风险。同时在从开发到应用的过程中,开发和设计者的主观意志以及用户个人的主观偏好等都会进一步对收集的数据产生影响。二是对算法伦理的约束机制尚未完善。从开发设计到应用当中的算法伦理规范机制仍然处于改进阶段,平台算法引发的内容价值导向缺乏伦理和法规的全面约束
。
为了更好地发挥算法技术的工具价值,规避可能出现的伦理风险,学者从伦理规范、法律规制和多主体协同共治三个角度来实现工具理性和价值理性的动态平衡。首先是伦理规范。在智能算法深处,规则和规律越来越呈现一体化的发展趋势。针对当前层出不穷的伦理问题,传统伦理的界限正在“熔化”,而这也意味着智能算法的伦理规制越来越有必要在造世伦理层次展开,从个体伦理向类群伦理发展。张旺认为,可以搭建算法风险治理的伦理结构化进路,通过制定算法设计、开发和使用的伦理原则制度,确定相对稳定的伦理框架和逻辑体系,形成合理可靠的伦理关系结构,从而确保算法符合道德伦理要求。其次是法律规制。李昭熠指出,欧盟的《通用数据保护条例》在一定程度上为人工智能信息传播带来了积极作用,如充分维护用户的数据权利、有效推进平台友好型人工智能系统算法的建设等
。因此,制定行之有效的法律制度是“技术向善”的保障。郭林生和李小燕认为,要建立公平、公开和包容的算法机制,构建平台和用户双向互动的反馈机制,倡导科学合理的数字人权,推进这些机制在我国科技立法和数据治理领域的话语权,实现互利互惠、可持续以及良性循环的信息生态
。最后是多主体协同共治。针对各种算法伦理风险,我们需要号召多方共同努力,在发展人工智能技术与保障用户数据权利之间达到动态的平衡。丁晓东以治理算法推荐的乱象为例,提出算法的设计者要及时公开算法程序关联阈值和用户标签生成要素;主流媒体要加强对用户感知智能技术风险能力的培养;平台方要加强智能技术知识的普及,保证数据主体的可见性、自主性,在尊重用户意见和偏好的情况下进行信息的个性化推送;用户也应积极提升自身的媒介素养,参与风险治理。
对于人工智能传播中的算法伦理与治理,以上文献首先探讨了算法伦理的生成逻辑,其次分析了隐私伦理、安全伦理、算法歧视以及算法偏见等四个方面的算法伦理问题,最后对算法伦理治理对策进行了探究。文献从多个视角非常精准地探析了算法伦理与治理问题,富有学术想象空间,但治理对策研究仍有很大的学术空间,比如可以区块链治理为核心,为算法伦理治理建立新的框架。
6.人工智能传播伦理问题的生态治理
“Ecologs”(生态)起源于古希腊文,由两部分组成,前者“Eco”有“生存环境”和“家”之意,后缀“logs”有“论述”和“学科”之意。“生态”多表示生物的生存状态,既指代生物在自然环境下的生活习性与生理特征,也涵盖生物生存与发展的生理状态。生态的含义有广义与狭义之分,自然生态从狭义上说是人与自然界所形成的和谐的关系结构,这是一种健康、平衡的生命系统结构;从广义上说,就是自然界的生物之间所形成的一种稳定、健康、均衡的生态平衡系统。本书使用的“生态”一词取其广义。从人的属性来讲,生态治理涵盖自然生态治理、社会生态治理和人的自我生态治理三个维度。本书的生态治理主要涉及社会领域,即社会系统中人工智能技术引发的伦理风险治理,主要指运用生态学原理对有害信息、资源和环境等进行调控管理,对受损的传播生态系统进行修补、改良、更新或重建的过程或活动,这些过程或活动符合生态系统的基本法则和特征。
在人工智能时代,传统媒体和新媒体都要加强信息生态系统的构建。刘语潇认为,智能平台以数据信息为核心,通过技术的更新升级不断嵌入媒体信息产业,而生态思维将成为未来媒体融合必不可少的支撑点
。有学者认为,诸如哔哩哔哩弹幕视频网的信息传播,其成功的关键在于“绿洲的生态”,而该生态实现了信息系统的动态平衡,最终形成一个生态共同体
。王君超和张焱以人民日报社等官方媒体的中央厨房为例,认为人工智能技术自动化生产的新模式已经改变甚至重构了我国当下的传播生态系统
。由此可见,在人工智能传播伦理的治理中,生态观念尤为重要。卢迪认为,现有的治理主体并不具备全局性治理的效能,无论是政府、技术专家抑或用户都存在着参与治理的局限性,而引入的生态治理规则是倡导多元主体协同治理的动态平衡治理理念,其可以为现存的智能技术传播风险治理注入新的生机
。为此,我们需要界定传播生态这一基础概念。传播生态是将传播系统作为一个统一的整体,将生态思维应用到自然、社会和人类自身发展的复合型生态系统。韩晶等学者以微博平台为例,认为它的传播生态系统包含原生态、内生态和外生态三个层次,这三个层次分别对应的是移动互联网的技术支持、受众需求、文化供给以及国情政策
。姚曦和晋艺菡认为,传播生态系统具有系统性、反馈性、循环性、开放性和调试负荷性等特征,但这也使得传播环境容易遭受谣言、诈骗信息等信息噪声的影响和污染,带来网络舆论危机、隐私风险、数据权利受损、算法歧视、负面诱导和数字鸿沟等问题。
为了构建良好的人工智能传播伦理生态,我们需要以当今学界关注的重点领域为切入点,实现三个目标:一是保护个人数据安全,实现其自由而全面的发展;二是更好地发挥大数据和算法程序的积极作用,把握信息安全的边界;三是引导信息价值伦理观念的重塑,推进全球善治,发展全球合智。姜文振认为,从人的维度看,全球合智体现在整个人类层面,它是人类社会作为一个整体的基本生态要求,是针对人的完整意义上的生态理念;从空间范畴上看,全球合智体现在全球层面,即生态所涵盖的区域范围是人的生存空间。因此,全球合智思想本质上体现在人类社会与其所处的空间环境关系上,它深刻地体现了马克思主义生态思想中人与自然关系的和谐本质
。而人类社会与其所处的空间环境的关系在人工智能传播伦理生态的语境下即为人类主体与人工智能技术之间的系统平衡。因此,诸多学者提出,人机合智传播伦理生态是未来人工智能技术发展的方向,而人机交互协同是智能传播伦理生态构建的关键。蓝江认为,未来的人机协同智能的核心在于集人类智能和人工智能之长,关键点是逻辑与非逻辑的碰撞融合、知与行的动态平衡,即统一与多元。也就是说,在人机交互过程中,人类主体会对以往的行为经验进行积累,对即将完成的工作进行能动的思考;而机器在不断的指令接收和执行中会量化和分析决策中个人数据的占比和权重,机器与人之间会逐渐形成双向的交互关系,被动与主动立场混同,单向的输出最终让位于双向交互的局面,只有这样才能进一步建构人类主体与人工智能技术之间交往互动的生态关系,最大限度地发挥各自优势,促进二者能量和信息的良性交换与循环。
以上文献主要探讨了人工智能传播伦理风险的生态治理问题。当前探讨人工智能传播的伦理风险治理的文献已经很多,也达到了一定的学术高度。但是,大部分文献都是从传媒、法律以及技术等维度出发进行伦理风险治理的分析和探讨,缺乏整体性视野,缺乏对人工智能传播伦理风险的系统性归纳,也很少有学者将生态治理的理念系统化地引入人工智能传播领域,缺乏基于人工智能传播特征的传播生态治理研究。本研究引入的生态治理理念正是基于当前人工智能传播伦理风险治理困境进行考量的,旨在从生态视角进行治理分析,最终实现构建一个良性的信息传播生态的目标。
7.人工智能传播伦理治理的路径选择
选择人工智能传播伦理治理的路径应借助算法设计者、政府、主流媒体、平台以及用户等多元主体的力量,通过制定治理原则、加强伦理引导和技术支持、推动多层级立法、保障用户数据可见性和提升算法透明度等对策,实现政府、科学共同体以及社会大众之间的协同治理,最终实现人机融合的良好传播生态。
人工智能伦理治理的路径选择既要兼顾科学与人文,将机器智能和人类智慧相结合,还要兼顾经济效益和社会效益,将商业原则和公益原则相结合。对此,陈仕伟将其整合升级为“公义原则”,这是一种伦理性的创新路径。
在该原则的引领下,人工智能伦理治理可从技术的伦理嵌入和外部的伦理规制两方面入手。一方面是技术的伦理嵌入。人工智能技术的开发、设计、部署以及应用等各个阶段都需要融入责任意识,只有这样才能将人类伦理融入人工智能技术的全过程。杨爱华认为,在技术的支持下算法生产者可以将具体的伦理条目以数字化的形式输入计算机系统,以此赋予人工智能进行人性化判断的能力
。李飞翔认为,这就要求建构算法系统设计人员等责任主体的道德标准,促使他们思考与评估算法的应用可能会带来不良社会后果,迫使他们从更具人文关怀、更体现社会伦理的角度去设计与改善算法程序,避免用户沦为技术与利益的奴隶,最终实现“技术向善”,从而实现增加社会福祉的美好愿景
。除了责任意识以外,还可以利用利益关联、社会实验等手段来辅助算法伦理治理。胡元聪认为,可以通过诸如ESG评级结果来指导投资,推动AI企业将道德责任与自身利益相结合,从而引导AI企业在AI产品的研发与生产过程中承担伦理责任
。颜世健认为,可以将社会实验与数据分析相结合,通过加入以人的需求为尺度的社会道德要求来辅助人工智能的发展,进而实现人性化的伦理治理
。另一方面是外部的伦理规制。学者郑智航认为,多元治理机制首先需要实现从一元结构到多元结构的转化,从政府一元管控到构建算法规制的合作治理路径,实现多元主体协作治理。
蒋博文认为,在解决技术维度的价值导向问题后,还要建立基于权利的数据共享机制,完善反数据垄断的相关法律以及自我参与式的数据分析等工作,平台方也要依据自身特点和用户群体需求制定出一套能够维持本平台健康运行的伦理规范,并将其作为日常运作的底层逻辑和传播规则,方便进行平台数据的溯源、信息传播的调控以及失范行为的捕捉与调节。
在人工智能产品广泛应用的时代,价值教育最本质的内涵就在于人与智能机器能够和谐相处。一方面,人类逐步摆脱身体的束缚,不断地延伸着自己的社会关系,通过人工智能技术的应用让自身的解放和全面发展有了实现的可能;另一方面,人机协调和人机交互将会成为社会的普遍现象,人工智能机器人也会根据人类的需求,能动地调节自己的技能,以期与人类实现价值对齐,在这个过程中人和机器共同遵循无伤害、安全以及友好的原则。对于基于人工智能技术的传播伦理风险的治理,其路径选择需要平衡各方需求,既不能任由这种风险泛滥,也不能因实施过度严苛的法律法规而抑制人工智能传播的活力。
综上所述,学者们对于人工智能传播伦理风险的治理路径和对策的研究,是对人工智能传播伦理风险治理所要秉持的理念的具体实践。为了构建一个动态智能的传播生态治理格局,相关部门需要制定涵盖技术、经济、政治以及伦理等多层面的法律法规,与主流媒体一道形成强有力的主流价值引导力量,提高人工智能传播时代公共议题设置和舆论引导的能力;同时不断提升用户的信息素养,推动形成多元协同治理的局面。人工智能技术设计者应增强其道德想象力,抵御隐含的传播风险,媒体平台应建立技术响应机制,增强人工智能技术数据和算法的透明度,减少原始数据库的偏见复制,促进人工智能传播生态的良性循环。
8.人工智能传播伦理治理的价值审度
人工智能传播伦理治理的价值在于实现社会效益,体现以人为本和数据人本主义,促进人的全面发展,形成动态平衡且互惠共生的系统观念,弘扬科技与自由、公正、透明等价值理念。
工具理性和价值理性一直都是技术发展绕不开的话题,其实质是对人文主义向度的技术思考。唐庆鹏认为,我们需要考量技术对整个人文环境和文化的意义以及对社会的影响,思考的路径主要分为工程主义和人文主义两个视野。工程主义往往立足严谨的科学数据;人文主义主要把精力放在对人工智能的社会反思上,这一点很好地弥补了工程主义所忽视的感性层面,但也可能导致人文主义者站在非专业的道德高地对人工智能进行过度的道德批判
。
目前,学界对于人工智能传播伦理治理的人文价值的思考主要从辩证思维和人本主义理念出发,集中探讨人的主体性、自由意志、全面发展以及人机关系等多个方面。首先,人的主体性基于我国传统文化中所蕴含的主体与附庸的辩证思维。坚持人类主体地位和智能技术服务于民、造福人类的思想是科学的辩证思维的重要应用。信息文明是以人类文明为基础展开的,人类的资源关系呈现出从物能化到信息化的发展,它凸显了发展归根结底是人类的发展这一本质内涵。也就是说,当代社会的发展正呈现人类本身的发展和社会进步的双向循环态势,其中人类的发展越来越处于主导地位。从物质生产到思想生产的人类发展过程,其实是从外在的物质条件到内在的精神需求发展的过程,是解放创造力、寻求创新力的过程。赵汀阳认为这也是未来信息文明发展的核心与关键。
其次,自由意志是自我认同的根据。在智能技术应用下的教育、医疗、无人驾驶领域,自由意志面临着传播伦理风险主体责任划分不清的风险。用户需要独立地判断智能技术带来的预测信息,以免在思想上被绑架,这样才能对自由意志的未来发展前景保持审慎和乐观的态度。韩水法认为,人文主义坚持理性的普遍性和自主性原则,技术的不确定性并不妨碍人类对自身的前景保持合理的乐观,人类应该保持开阔的视野,通过学习应对未来的诸多挑战
。再次,关于全面发展,刘志毅提出,人本主义思想就是注重人的全面发展
,比如道家思想中的“天人合一”就是对人本生态的鲜明主张。目前的人工智能仍处于对人类智能的简单模仿阶段,并不具备完全理解人类的能力,也无法理解事物背后的逻辑。闫坤如认为,人工智能技术从本质上看是对人类自我认知和价值判断的一场革命,它在发展的同时也在不断地推进和重塑人类的理论认识以及现实判断,重组人类与周围环境之间的关系,并且不断扩大人类对整个世界的认识视野
,推动人类自身的进步。最后,正确处理人机关系是人工智能和人类智能互相依存、共同发展的关键。当超级人工智能技术达到奇点状态时,即能够自我设计、自我优化,能够实现任何功能时,技术本身已成为绝对的主体,继而超越并支配人类智能。超级人工智能所带来的文化风险即表现为机器逻辑对于人类自身文化属性的侵入、支配与替代。基于人类“生物—文化”系统的脆弱性、唯一性以及整体性,为了确保人类文明的可持续发展,就必须建立一个统合各类智能主体的“主体”,对所有极限技术进行管控,以维持生物主体与技术主体之间的均衡。实现这一人类文化系统之下的内在均衡其实就是智能与非智能、机器与生命、理性与非理性、还原主义与整体主义等整体化的进程。陈鹏提出,未来的人机融合智能会将人类智能处理和感知复杂信息的能力注入智能技术的算法推理过程,而人工智能技术高效处理信息的能力又可以协助人类完成许多复杂的事务性问题,最大限度地发挥各自优势,形成友好人工智能的循环生态系统。
总体来说,国内相关学者关于人工智能传播伦理与治理研究的文献比较丰富,对于当前人工智能传播存在的伦理风险及其治理的研究已经取得了可喜的学术进步,但是研究的具体问题重复率也比较高,大多局限于数据伦理、算法伦理以及人工智能传播伦理风险的表现、影响以及治理方法等方面,对人工智能传播伦理风险的生成逻辑缺乏深入研究,导致在此基础上提出的治理方法显得空泛。因此,人工智能传播中的数据伦理和算法伦理风险生成的技术逻辑与社会逻辑,特别是基于人工智能传播伦理治理的理念、机制、模式以及路径创新还有很大的学术探讨空间。