阻击谣言:权威科普背后的“信息战”
在全球抗击疫情的战斗中,谣言成为干扰疫情防控的世界性难题。世界卫生组织将此种情况命名为“信息瘟疫”(infodemic)。联合国秘书长安东尼奥·古特雷斯更是指出:“不实信息的传播如毒药一般让更多人失去生命。”
疫情谣言的“病毒式传播”
新型冠状病毒肺炎暴发之初,其超强的传播力不断刷新人们的认知,让很多人陷入焦虑和恐慌。而与此同时,关于疫情的谣言也迅速扩散。
在各种信息平台上,关于疫情的谣言扑面而来:有的以“科学”为外包装,比如有谣言甩出“纳米”“细胞屏障”等术语,言之凿凿地宣布抽烟可以预防新冠病毒;有的谣言图文并茂,以聊天截屏还原“内幕”信息的发布现场;更有甚者,冒用权威人士的身份来“盖戳认证”,其中以“钟南山院士建议”开头的抗病毒谣言就有多种版本……
在这场公共卫生危机中,“病毒式传播”不再只是一种修辞,而是成为每个普通人的切身体验。根据Allport和Postman提出的谣言公式,谣言的流通量=事件的重要性×事件的模糊性。
在疫情背景下,这些似是而非的信息动辄关乎个人和家人的生命安全,而传播它们又只需轻点屏幕,每个人都有可能成为错误信息的“易感对象”和“超级传播者”。
对于个人来说,获取科学、有效的信息是在疫情期间保全健康的前提条件。而在社会层面,如技术哲学家许煜所说,对抗新冠病毒的战争“是一场和错误信息、虚假信息的战争”,
在这场信息战中,作为信息中枢的互联网平台发挥了重要作用。
将事实查证到底:技术加入疫情信息战
腾讯较真疫情辟谣特别版
有调查研究显示,在疫情期间,各种网络平台成为国内公众获取相关信息的重要来源,而商业新闻网站或其手机应用、视频类应用与中央级权威媒体的信息影响力相当。
移动互联网使“永久连接、永久在线”成为普遍的生活方式,
其所构造的线上空间成为疫情的“第二现场”,因此也成为错误信息的集散地和辟谣的主战场。在此背景下,腾讯较真团队加入辟谣前线,推出疫情辟谣特别版。
腾讯较真起步于2015年,从最早的新闻专栏成长为腾讯PCG(平台与内容事业群)的辟谣平台。较真平台所积累的辟谣资源和经验在此次疫情辟谣战中发挥了重要作用。
较真平台建立了独有的三级鉴定体系和循证体系,对每一条查证内容都进行严格的上线前审核。三级鉴定体系保证了平台面对流言和不断发展的情况,不做“一刀切”式的粗暴处理。面对科学问题,团队对参考文献要求极其严格,遵循循证原则;面对社会民生类问题,团队则在逻辑和多证据交叉印证上进行审核,并随时邀请专家顾问团从专业角度为内容把关。
从具体呈现来看,腾讯较真平台对谣言的鉴定结果细分为“谣言”“有失实”“确实如此”三类,每一条谣言之后都会附上来自多方信息源的查证要点,并明确标注查证者的资质。如此,“辟谣”有据可依,公众不仅知其然,更知其所以然。
基于严格的鉴定体系和专家顾问的专业把关,较真平台的辟谣呈现出真实性、及时性和专业性的特点,能够快速处理不同类型的网络谣言。如“戴多层口罩才能有效预防病毒”“喝高度白酒蒸桑拿能防病毒”等,尤其是对于“中成药双黄连口服液可抑制新型冠状病毒”的专业查证,在很大程度上减少了大众不理智的哄抢行为。
针对疫情期间不同类型的谣言,较真团队也会采取不同的处理策略。一些事关重大举措的谣言,比如涉及“交通出行”的谣言,虽然传播快但核实辟谣也容易,这时候的关键就是要抢速度,迅速用真相压制谣言;一些很容易引起恐慌的信息似真实假,比如“钟南山建议全国人民在家隔离两周”,对这类信息的辟谣需要反复传播,不厌其烦;至于一些荒诞不经的谣言,比如“花露水、香油、万金油、白醋、吹风机乃至童子尿可以防疫”,因为也有公众关心甚至轻信,不能因其荒诞而嗤之以鼻,反而更要严肃对待,建立公众对辟谣平台的信任感(见图1-1)。
截至2020年8月6日下午,“新型冠状病毒肺炎”疫情辟谣特别版已为用户提供超过7.48亿次服务,共发表真假查证类文章657篇,对在疫情期间阻击谣言传播做出了重要贡献。

图1-1 腾讯较真推出较真榜和详情页面
国外互联网科技公司抗击“信息瘟疫”
在谣言治理的迫切需求下,国外的科技公司同样处于抗击“信息瘟疫”的最前线。
脸书(Facebook)直接删除包含“能带来物理伤害的内容”或“散布关于新冠治疗方案、必要医疗服务的可用性以及疫情暴发地点和程度的错误信息”。在此标准下,被删除的内容包括时任美国总统特朗普发布的“新冠并不致命”的言论。对其他一些被事实核查机构判定为虚假、不实的信息采取“降流”措施,并用醒目的标记提醒读者。同时,Facebook公司旗下的全部产品都会突出显示来自权威信源的疫情信息,“建立用户和可靠信息的联系”(见图1-2)。

图1-2 Facebook公司各软件突出显示权威疫情信息
Facebook同样采取与专业机构合作的方式进行谣言识别,其在疫情期间与60多家事实核查组织合作,并在全球范围内对50多种语言的谣言进行核查和评定。截至2020年4月,Facebook已删除数十万条可能造成人身伤害的疫情相关谣言。
其他互联网科技公司也都有所行动:谷歌在首页用“SOS alert”标示强调来自世界卫生组织(WHO)的疫情信息,YouTube下架传播未经证实的抗病毒治疗方案的视频,Twitter在用户搜索疫情相关标签时自动显示提示信息,将用户指引到权威卫生机构的账号。
后疫情时代的谣言治理
大型公共卫生危机事件是滋养谣言的温床,疫情放大了网络谣言的后果,也凸显了谣言治理乃至网络信息治理的迫切性。疫情这样的例外情况为谣言治理布下“考场”,也对我们今后的行动有所启发。
作为常态的谣言
早期谣言研究着重呈现谣言的“病态性”,谣言造成的后果和背后的恶意动机被反复强调。这种理解很容易导向“斩草除根”式的谣言处理策略,其效果并不理想,网络空间中的谣言很快“春风吹又生”。面对此种情况,越来越多的研究者开始以“常态”思维考察谣言。
谣言的产生和传播是不可避免的常规社会现象,其存在有其必然性和一定的“建设性”。个人对谣言的信任和扩散与特定的心理和情感状况有关,个体焦虑、广泛的不确定性、轻信的特质和谣言内容的切身性被认为是谣言诞生和传播的4个条件。
[1]
在社会层面,谣言是集体行为的结果。在社会危机情境下的谣言可以被理解为“公众为控制社会紧张局势与解决危机问题而采取的集体的、即兴的信息寻求和交换行为”
,其一方面为积聚的社会情绪压力提供出口
,另一方面预警社会信任危机,暴露公众的核心关切,参与纾解社会问题,在一定程度上起到“安全阀”的作用。
谣言具有生命周期,其产生和传播是一个循环往复的动态过程。澳大利亚昆士兰大学心理学教授普拉桑特·波迪亚(Prashant Bordia)和美国罗彻斯特理工学院心理学教授尼古拉斯·蒂芬查(Nicholas DiFonzo)总结出谣言在传播的过程中可能经历4种“变异”:削平(leveling):谣言被浓缩、简化;增加(adding):滚雪球式的“添油加醋”;打磨(sharpening):谣言中的某些内容被突出和夸大;同化(assimilation):以上三种变异形式最终导向谣言内容与我们的认知模式趋同,变得更可信。
从常态角度理解谣言并非意味着对谣言的放任,而是为谣言治理提供思路。一劳永逸地消除谣言注定只能是幻想。从谣言产生和传播的规律入手,以疏代堵,最终控制其社会危害性,才应该是谣言治理的正确路径和目标。
新技术环境下谣言治理的挑战和机会
根据《2019年中国网民新闻阅读习惯变化的量化研究》,移动端新媒体平台(如微信、微博、抖音等)成为网民获取信息的主要渠道,电视、纸媒等大众媒体的信息传播占有率明显降低。微信群被认为是最可信、更新速度最快的信息获取渠道。社交媒体环境下圈层化的嵌套传播结构为谣言的病毒式传播提供了方便,谣言经由“信息桥接点”可以快速扩散到不同圈层。
算法推荐等技术在信息分发领域的应用,某种程度上也为谣言的传播提供了意外的“助攻”:算法的高效率使得谣言在现代化的信息生产和分发体系中获得最大的传播速率。
技术发展也为辟谣提供了新的可能性。首先,社交化网络中积累的数据资源和算法的结合可以提升谣言识别和处理的效率,实现对谣言传播路径规模的精准预测和辟谣的自动化。其次,网络环境中谣言的传播不只涉及简单的信息复制,也是多元主体对话的过程,有研究指出这种交互可以依据主导的表达方式分为3个阶段:开始时,谣言被引入一个群体,引起较多质询,接着人们开始分享更多个人经验和相关信息,试图理解谣言并评估其真伪,最后群体达成一定共识,对谣言失去兴趣。 [2] 当下的互联网技术一方面为讨论提供了易得且丰富的信息支持,另一方面也为其搭建了平台。
综合以上讨论,可以得出以下几点移动互联网环境下辟谣的思路。
(1)技术预警:变被动为主动
移动互联网给谣言插上了有力的翅膀,事后补救式的辟谣时常追不上谣言传播的速度。在谣言传播的早期阶段进行干预才能尽可能减少其社会危害。谣言的圈层式传播有一定的周期,这为技术干预提供了时间窗口。同时,对谣言的识别不应该仅局限在内容本身,而应该更多地注重谣言易发的情绪环境和易感人群等,“变内容识别为情绪识别和圈群识别”
,提高谣言的识别效率。
(2)辟谣众包:激活自净功能
辟谣是一个动态的过程,需要社会多元主体的持续参与,其中公众的力量不容忽视。面对相对复杂的谣言,从上至下“一刀切”的辟谣效力不足。而“众包”式的辟谣模式能广泛地动员公众参与讨论,不但有助于提高辟谣效果、节省社会治理成本,而且有助于激活网络空间的“自净能力”。举例而言,家庭微信群中出现的跨代际辟谣可视作这种自净的微观情境。
(3)社会综合治理:提升谣言免疫力
谣言治理是多元社会力量参与社会治理的重要实践场。对谣言的治理最终要落脚到社会的抗谣言免疫力。这需要政府、技术平台企业、专家等社会多方参与,从滋养谣言的宏观、中观和微观情境入手,推动政府信息的公开和透明,提升公众信息素养,纾解社会焦虑情绪。
透明化治理:尊重公众自主性
除了谣言,仇恨和暴力煽动言论等不良信息也对互联网内容生态构成危害。
目前,网络平台对有害信息的审核和处理依靠算法和人工相结合的形式,其中算法的作用逐渐提高。Facebook在最新发布的《社区标准执行报告》中提到,人工智能目前可检测出平台上删除的94.7%的仇恨言论,而一年前该比例为80.5%。信息平台对算法的广泛使用在提高信息分发、识别和处理效率的同时也带来新的问题。比如有研究者指出,算法正在对信息的“可见性”构成威胁。
[3]
干预的“误伤”和“漏网”也带来争议。比如2020年3月,Facebook的反谣言举措被指“滥伤无辜”,关于新冠疫情的新闻故事、社区募捐公告等都被删除。此事件引发舆论质疑后,Facebook对此回应称其信息过滤系统出现漏洞,修复后会“复活”被删除的内容。
再如,Facebook被指责对特朗普的暴力煽动言论袖手旁观,而对此Facebook首席执行官扎克伯格回应称:“我们将其理解为对国家状态的预警,人们需要知道政府是否要动用武力。”
网络平台信息干预的尺度和方法成为亟待讨论的议题,问题的关键在于:如何在减轻有害信息的负面影响的同时,维护正常的信息获取和意见表达自由之间的平衡?一方面,公众获取的信息越来越绕不开算法黑箱的加工;另一方面,公众信息素养逐渐提高,他们对自身权利的意识也在觉醒,不再只满足于被平台“投喂”信息。这提示我们在未来的网络内容生态治理中,要更加重视公众的自主性,将其迎入治理决策的后台。
举例来说,Facebook于2018年公布了社区标准的内部执行指南,尝试将内容管理的黑箱“透明化”。此举主要基于两点理由。
(1)帮助用户理解公司如何在面对复杂的内容和微妙的语境时做出判断。
(2)细节的公开有助于收集来自用户和专家的反馈,从而不断完善决策。
被公开的内容还包括政策产出过程、执行情况和用户申诉的渠道等。Facebook指出其内容管理的原则参考了仇恨言论、反恐、儿童安全等领域的专家的意见,同时开辟用户申诉渠道,使管理决策处于动态更新的状态。
疫情期间的谣言阻击,可以看作“万物皆媒”时代打造良好信息生态的一个切面。技术的发展正在重塑信息生产、分发和消费的结构,一个用户友好、内容向上的信息生态需要用户、企业、政府、社会等多方面参与,实现同频共振,“构建向善的网络文化、营造清朗的网络空间”。