一 研究背景
《中共中央关于制定国民经济和社会发展第十四个五年规划和二〇三五年远景目标的建议》指出:瞄准人工智能、量子信息、集成电路、生命健康、脑科学、生物育种、空天科技、深地深海等前沿领域,实施一批具有前瞻性、战略性的国家重大科技项目。
本书面向未来科技发展趋势,聚焦人工智能传播伦理及其治理领域,将生态治理意识与责任关怀嵌入人工智能技术应用洪流,推动智能技术与信息传播的良性互动和融合发展,在文献梳理与实践观察基础上,为人工智能传播伦理风险治理提供新的路径参考。
本书以人工智能传播活动为研究对象,聚焦其引发的伦理风险及其生态治理。本书基于生态治理的视角开展研究:一是针对智能传播伦理风险进行系统性分析及治理,以此促进智能传播产业良性发展;二是立足于智能传播已上升到国家战略层面的现实情况,为构筑人工智能技术在信息传播领域的先发优势,助力国家在国际舆论场上占领信息传播制高点提供智力支持。
本书通过对人工智能传播主体与客体伦理风险问题的系统性分析,为人工智能传播伦理风险规制和伦理生态体系建设提供思路。
(一)人工智能传播主体伦理风险问题需要防范
伴随着人工智能产品的不断研发和改进,人工智能产品的应用更加广泛,性能也更加成熟和强大,社会进入强人工智能时代指日可待。强人工智能是真正接近人类的,可以自我学习、推理判断、研究分析的人工智能,具备类似人类的情感和意识,在面对不同问题时能依托大数据库做出最优决策;有生存和安全需要,甚至能创造出新的世界观,构建新的文明。2016年3月15日,人工智能机器人AlphaGo最终打败世界围棋冠军李世石,AlphaGo运用人工神经网络、深度学习、蒙特卡洛树搜索法等精确预设,计算每一步走向的胜利率。这次轰动世界的比赛不仅让公众见识到了人工智能的厉害之处,更是让很多人开始反思人工智能是否会对人类的主体地位造成冲击。
强人工智能相比于人类而言具有不可比拟的优势。人类因为是生物体,会受到生理因素限制,而强人工智能在生命周期、学习能力和感知能力方面远超人类,可以完成短时间内的高效学习。
1.人工智能机器人的主体性受到质疑
美国的发明家雷·库兹韦尔提出了AI技术奇点理论。他预言,2045年,人工智能将超过人类智能,他将这一时刻称为AI技术的“奇点”。当下社会,随着信息技术的飞速发展,人类社会发生了巨大变化。无人驾驶、无人超市、无人宾馆、智能家具等人工智能应用陆续出现在人们的生活中。“许多研究者认为机器人不可能真正地模拟人的大脑,理解人类语言、人的创造思维,机器人在语言、文化、思维上达不到人类的高阶认知水平。未来也不会出现超越或控制人类的机器。”
但是随着人工智能的不断发展,机器人取代人类的言论变得多了起来。“机器人取代人类”涉及的风险主要是生存风险(existential risk),波斯特洛姆将其定义为这样一种可能性,“它所产生的不利后果将会摧毁整个人类,或永久地断送人类的发展潜力”
[1]
。
人工智能对新闻主持人行业形成了强烈冲击。新闻播音员主要通过电视或互联网平台,运用声音和副语言播报新闻稿件内容,承担“传声筒”的角色。AI合成机器人模拟人的语调、语速等,所达到的播报效果与新闻播音员接近。随着声音合成和图像模拟技术的发展,AI主播也呈现较为强劲的发展势头,传统的新闻播音员播报水平停滞不前,势必会被淘汰。另外一个受人工智能发展影响大的领域是会计行业,因为运用人工智能进行数据运算,能够提高数据核算效率、降低工作成本以及人员和设备的管理成本、加强相关机构的财务风险防范能力等,会计人员被取代的概率随着人工智能技术的迅速发展而增加。人工智能可从事信息录入、数据汇总、手账制作等简单却又繁杂的工作,相应的基层会计人员就业空间将遭到挤压。“几十年内,机器智能将超越人类智能,并导致技术奇点的来临。”
目前,人工智能仍然处于发展的初始阶段,对于就业的影响还不够明显,现有的冲击还只是局部的、有限的、短期的,但人工智能在图像(人脸)识别、语音识别和指纹识别等功能上的应用趋于成熟,算法以及计算机技术的高速发展,意味着人工智能新的发展浪潮即将来临。当人工智能发展达到一定水平后,可能催生新的产业生态,那时其对就业的影响将是深刻而全面的。
2.平台型智能媒体缺少人文关怀
在智能传播上,应该让人文关怀落地。国内第一个报道奥运赛事的人工智能机器人在短短6天内完成了超过200条的新闻报道,但是受众反映,报道内容并不全是他们想要的,机器人报道的内容缺乏对奥运竞技激烈场景的描述、对运动员精神面貌的烘托以及对观众情绪的刻画等。
人工智能在灾难新闻的写作上满足了“快”和“准”的要求,比如2017年九寨沟地震的消息传播仅仅花费了25秒。但是人工智能无法做到去灾难现场进行采访和报道。机器人没有人类的思考和判断能力,收集图像和文字后不能针对信息背后的含义进行深层理解,把关能力不强。机器人写作在灾难新闻中运用不当,将导致精神上刺激受灾群众、场景过分血腥和悲惨、受众接受度低等问题。而媒介从业者会根据经验基于伦理规范考虑救人优先还是报道优先?面对失去亲人的灾区群众要怎样合理采访?是否要对相关人员进行隐私保护?解决这些问题,需要弥补人工智能技术的人文伦理短板。
(二)人工智能传播客体伦理风险需要防范
新兴智能新闻平台以万物互联为基础,以“大数据+新闻内容”为形式,以迎合受众喜好为主要发展方向,在海量的信息中为用户寻找相关信息。个性化新闻算法推荐机制通过相关技术将信息推送给感兴趣的用户,实现了信息分发的准确性和高效性。但相对于整个真实的环境来说,用户接触的信息非常有限和单一。不知不觉中,受众主观判断不断被加强,可能导致自身思想僵化、主流价值淡化,最终诱发信息茧房、回声室、过滤泡、信息孤岛等效应。2018年发生的“江歌案”和“杭州保姆纵火案”等事件在短时间内得到大范围的传播,就是在无数个回声室的信息得到数倍放大的结果。
1.群体极化风险
德国著名社会学家马克斯·韦伯曾把人类的理性分为价值理性和工具理性。“价值理性强调行为不计后果地遵从某些价值理念,工具理性重视为达到目的所采取行为的有效性以实现效用的最大化。”
一旦工具理性凌驾于价值理性之上,人类将变成没有自主性的群体。个人的决策往往会受到群体间讨论的影响,从而容易产生与群体一样的结果,甚至出现极端状况。比如,某些网络媒体平台在浏览量的驱使下,使用人工智能“协同过滤”的方式传播舆情内容,让用户接触的信息都是和自己认知观念相符的内容,造成用户在“很多人撑腰”的心理下行为更加极端。受众们只局限于自己看到的部分真相,或者说只看到媒介推送到自己眼前的部分真相,却认为看到了全部的真相,因而迷失在算法虚拟世界中。
2.社会关系瓦解风险
人们习惯于根据个人的喜好进行信息的选择,由于兴趣的引导,信息选择被偏好和习惯所束缚。智能算法推荐技术将用户想看的内容推送到其眼前,然而受众想看的并不是受众自主去看的,而是被算法记住了喜好之后推送的。算法迎合人们的猎奇心理,强调用户应该追寻“个性”,致使大量低俗、暴力等信息泛滥。
“随着网络技术的发展,公众只会选择注意自己偏爱的事物,为自己量身定制一份‘我的日报’,长此以往,公众自身将会禁锢于如蝶茧一般的‘茧房’之中。”
“一项研究……在对77位用户的跟踪中发现,‘今日头条’真正做到了‘千人千面’,没有两个人收到完全相同的内容推送。”
然而,依据程序推荐新闻的模式,机器人不能像人类一样判断新闻价值,而只能根据固定的算法语言、数据语言、筛选模型选择新闻,由此难免导致信息内容低俗化的问题,造成用户信息接收的“窄化”,让多元的信息传播受到阻碍,人们则持续在拟态环境、虚拟真实中迷失自己,最终困在信息孤岛上。2017年《人民日报》就曾连发3篇评论
批评算法推荐引发的乱象。
我们不可否认的是,随着智能技术的飞速发展,社会的“大断裂”
正在加速形成。每个人在互联网中都用独特的符号证明自己的独特性,这种独特性是可以被他人识别和接收的。针对每一个个体,人工智能会通过深度学习能力为其提供个性化服务,并且这些个体不会被当作整体对待。比如,通过数据挖掘,我们可以实现对个体偏好、个体性格等个性化信息的收集,由此生成个人画像。过度的个性化推荐可能会减少人与人之间的互动,限制主体接触和自己不同的世界观,从而致使社会分化严重。