一 数据伦理问题的主要表现
(一)数据歧视传播伦理问题
即使大数据在运算的过程中高效便捷,但毋庸置疑,其本身的运算逻辑中具有不可避免的偏见和歧视。一方面,为了更快、更便利地计算出结果,算法会更多地提取具有明显特征的数据,而可能让特征不够明显的数据被忽略,从而导致信息偏差甚至是信息盲区现象;而另一方面,出于提高传播效率的目的,会采取剔除“无效数据”和“冗余数据”的方式,造成数据本身的涵盖不全面。
1.设计者偏见导致歧视
在媒介经济利益基础上,相对于掌握数据多的一方,媒介对数据掌握少的一方表现出更多的歧视。设计者偏见型数据歧视表现为设计者将自身的偏见纳入算法设计。当然,软件功能的修正和健全也不可避免地以牺牲些许用户的体验为代价,正是用户一次次的不满和投诉使人工智能得以成长。
算法的相关数据呈现不全面,导致受众对部分群体的形象产生曲解。由于各个国家在政治、风俗习惯、价值取向等方面各有差异,在各国的原始训练数据中就存在数据片面和偏见现象,并很有可能导致数据呈现和传播中出现偏见和歧视问题。
2.无效数据导致大数据的“误判”
大数据应用中,出于便利便捷的目的,运营者在处理数据时会模糊特征不明显的数据并对其粗略归类,减少“无用数据”和“冗余数据”的占比,可见大数据并非真正意义上的全数据。大数据的价值在于运用已有的数据对将来可能出现的情况做出预判,草率选择的数据、虚假的数据、样本太小的数据在代表性上肯定受损。“计算机科学领域著名的GIGO定律就是指(在计算机运算过程中)若输入垃圾数据,则输出的亦为垃圾数据。”
另外,基于前文提及的数据鸿沟下的“马太效应”,弱势群体在大数据时代并不享有资源垄断者所享有的“数据优待”,其仍处于不利的地位。若算法在学习和训练时用到的是这些数据,进而将这些固化偏见进行传播,就可能导致算法陷入“误判”。
3.大数据鸿沟扩大
大数据应用对人类行为数据进行无差别收集时,未考虑到不同人群使用的数字设备和技术运用的差异性,会导致最终收集到的数据反映的社会现实和真实的社会现实不一致。不同群体在大数据中的能见度是不同的,在现实中就被边缘化的群体,在大数据中同样会被边缘化。从经济学的角度来看,大数据中的数字鸿沟并不利于普惠技术提供平等的机会,没有融入数据系统中的弱势群体很难享受到商业机构所提供的各类促销与优惠政策;从社会的角度看,数据鸿沟的存在将导致社会更大程度的割裂;从政治的角度看,被大数据排斥在外的弱势群体有更大的可能得不到应有的权益,提出的诉求难以得到解决。
4.大数据“杀熟”
“大数据开启了一次重大的时代转型。与其他新技术一样,大数据也必然要经历臭名昭著的硅谷技术成熟度曲线。”
数据的获取、使用必须遵守数据真实、安全和公平三条底线,但是随着数据造假、非法使用和歧视等情况不断发生,数据的三条底线被突破,造成互联网秩序的混乱。在“互联网+”的消费环境中,企业根据大数据技术捕捉用户在各种网络平台上产生的行为数据,并进行对比分析,最终绘制出用户行为画像,随后据此展开需求推测、产品或服务推荐、个性化的营销等。亚马逊大数据技术的“杀熟”行为就是在掌握大量数据的前提下,利用数据分析用户的信息,将相同的产品和服务针对不同消费者定下不同的价格,这本质上是价格歧视的表现,对消费者的知情权构成了伤害,甚至可能构成欺诈。
(二)数据安全传播伦理问题
安全问题是人工智能伦理问题中的核心问题。广义的安全伦理指的是所有社会生产、生活活动的参与者在开展生产、生活活动的过程中应坚持充分保障社会公共安全的活动原则。
霍金以及施密特曾提出人工智能可能引发人类生命安全问题。人工智能在原有算法的基础上进行自我学习,其运行过程中的安全性、可控性都是不能被完全控制的。
人身安全问题主要是指人工智能产品在应用的过程中引发的危害公民身体以及心理健康的问题。以目前的无人驾驶汽车为例,西方某无人驾驶汽车可利用智能识别系统识别路障,从而保障车辆的正常行驶,但是该系统在测试阶段发现了问题,即该智能识别系统无法识别袋鼠从而无法躲避。智能识别技术的不完善以及车况预判的不准确将导致交通事故的发生。反观自动驾驶各类试验中发生的交通事故,不难发现,人们大多数情况下都是对自动驾驶技术提出质疑。
个性推荐类App对个人数据的依赖性程度高。以“今日头条”为代表的新闻信息推送App主要通过信息服务来吸引用户,以精准信息推送抢占市场,若是实施严格的信息保护措施,这些行业将受到巨大打击,从而导致建设完整的信息安全保护机制难以落实。
人工智能设备通过传感器全天候进行信息的采集工作,包括用户的肖像、语音数据的采集等。AI视频换脸近年来频繁地出现在我们的生活中,比如深度伪造技术(Deepfake)。国内外许多用户凭借这项技术创作了一系列换脸视频。不过,由于该工具的使用需要具备一定的专业技术,所以并没有获得大范围的传播。但AI换脸技术的走红还是让某些开发者嗅到了商机,先后推出了一些易于大众使用的AI工具。目前,无论是国内还是国外,针对AI技术的相关管理依旧不够完善。因此,这种AI软件一旦泛滥,就有可能侵犯别人的隐私权和肖像权,更有可能成为不法之徒用于违法犯罪的工具。
不法分子可以利用人工智能技术,模拟特定人物的声音,对与该人物相关的人实施诈骗。也就是说,人工智能技术通过模拟人的行为以及身体机能,可以达到“类人类”的效果。据报道,在国外,有人利用AI模仿某公司高管的声音,成功骗取公司员工24.3万美元。
现在,AI合成的语音已经变得非常逼真,由此引发的诈骗案数量也在逐年升高。尤其是随着技术的发展,合成的语音已经能够做到以假乱真。国家计算机网络应急技术处理协调中心发布的《2014年我国互联网网络安全态势报告》显示,“移动应用程序成为个人信息泄露的新主体,订票、社交、点评、浏览器等多种国内知名移动应用程序在2014年相继发生过用户个人信息泄露事件。”
与传统信息收集不同的是,人工智能的数据收集是通过各种端口接入人们的个人生活以获得数据。人工智能的传感器遍布生活各方面且难以被察觉。譬如,ISO系统会记录用户的指纹、面容、声音等生物特征,用户只知道有信息收集的过程,却不知道信息被收集的目的。人们知道自己的个人信息会被当作商品售卖,但很少有用户试图反抗这一行为。人工智能在让个人信息安全面临危险的同时,对国家和社会的安定也构成了威胁。若某些不法分子利用技术恶意攻击数据库,造成数据库漏洞,甚至导致数据偏差、语义偏差等问题,那么数据库的完整性将遭到破坏。同时,还存在着另外一种情况,即非法组织或个人在利益的驱使下,运用计算机技术对数据传输过程中的重要隐私信息进行窃取,导致网络信息泄露。
信息泄露可能给信息所有者和用户造成损失,甚至会把用户置于危险之中。
(三)数据隐私传播伦理问题
1.个人信息泄露
1890年,美国学者Warren和Brandeis将隐私权界定为“不受干涉”或“免于侵害”的“独处”的权利。
[1]
众所周知,大数据蕴含着巨大的价值,引导着各互联网企业借助算法监控、分析、利用用户信息,侵入用户的私人领域。作为人工智能发展的必要前提,大数据技术为人工智能算法的运行提供了大量的数据材料和基础支撑,其前端数据采集的过程也会包含网络采集、公开资源获取和有偿采购等不同方式。为了获得足够数量的数据,个人的信息资源可能被当作商品售卖。目前,数据的共享和流通没有完整健全的机制,部分企业获取用户数据需要走灰色渠道,而用户的数据则在用户不知情的情况下被各个企业使用,引起社会对隐私安全的担忧。“尽管大数据的力量是那么耀眼,但我们必须避免被它的光芒诱惑,并善于发现它固有的瑕疵。”
从技术层面出发,大数据技术并不需要获取用户的全部数据,其仅仅通过采集到的用户数据碎片就能推理出用户的“全貌”。
2.侵害个人“身体-空间”隐私
大数据时代,用户认为的隐私不再是真正的隐私,数据收集和整理之后被应用于构建较为精确的用户画像,推测用户在现实生活中的身份与角色。人工智能技术已经应用到很多领域,这让不同领域的数据不断被收集。我们生活在“超级全景”时代,身体不再被认为是“私人空间”,而已经是“超级全景”的一部分。
人们生活在算法构建的“圆形监狱”中,并且“圆形监狱”范围越来越广,其中的“囚犯”越来越多。在算法时代,我们时刻暴露在算法之下,我们在网络上的每一个足迹、每一个消费、每一次聊天都被记录下来,我们变成了“圆形监狱”的“囚犯”。
3.国家层次隐私伦理困境
“大数据背景下,国家本应该是公民个人隐私和个人安全的承担者和保护者,但实际上政府可能以‘国家安全’的名义侵害个人隐私安全,这是国家内部面临的隐私伦理困境。”
美国政府要想取得公民个人隐私数据就必须取得法院颁发的许可证来维护公民隐私权。大数据在发展过程中还会带来各种威胁,毕竟大数据发展的核心是规模经济,它通过体量的剧增实现应用。
(四)数据采集传播伦理问题
智能设备能够自动存储人类行为数据,通过互联网技术实现数据共享,这让主体在互联网上的行为被永久留存,知情权、隐私权、信息所有权、信息使用权的边界模糊易引发伦理问题。大数据在数据采集阶段根据原有设定无差别地进行信息采集,公民的基本属性信息、身份信息、财产信息和健康信息等都会被捕捉,其中就可能有侵犯公民个人隐私的违法行为产生。原本的个人信息经过去标识化、去差异化处理之后,不会被视作个人信息,那么在后续的分析和使用过程中也不会受各种法规的限制。“数据的滥用、盗用、乱用问题,始终是悬挂在技术与文明之上的达摩克利斯之剑。”
数据采集的过程并非完全公开透明,且数据多是源自一些公开信息。为了获取更加翔实的数据,部分企业运用不当手段获取公民的信息,造成公民的信息泄露甚至被买卖。另外,数据收集中存在收集不全的情况,群体数据收集的片面将导致该群体不被大众完全理解或者被曲解。如果仅仅针对某些应用或服务进行数据的采集,那么收集到的数据只能代表使用这些应用或服务的用户的行为特点。但是这些数据是海量的,这就造成了一种样本能代表大众的错觉,导致人们后期在对一些群体进行研究及评价时做出错误的论断。
在大数据环境下,用户的身份定义并不是用户对自身的定义,而是企业在进行数据挖掘时,基于用户的风险程度、商业价值等表现对用户进行的分类定义。由于全过程数据不透明,客体化
的数据对象不知其采集到的数据究竟为何目的,这也加大了用户的数据安全隐患。
数据被采集后经过处理加工向大众展示,但是由于数据量巨大,媒体在进行数据处理时不可避免地产生一些偏差,在制作数据新闻时选择直接展示全部数据,未对数据进行深入加工或思考其背后的意义,以致这些数据成为无用信息。甚至部分媒体为吸引受众的注意,过度挖掘低俗化、娱乐化信息,影响社会主流价值观的呈现。由于要在海量的数据中选择具有代表性的数据,有些数据格外受重视,也有一些数据被忽视甚至被歧视。因此,数据分析时分类标准和变量选取的不同也会决定数据挖掘结果的呈现形式。如果基于数据的差别选择处理逻辑,那么分析结果也会出现不平等、偏见、歧视等现象。大数据捕捉的是全样本,并不是代表性样本,所以在全样本中可以分析出来的偏见或其他问题在最终的分析结果中也会有所呈现。
(五)数据霸权
传播伦理风险
大数据时代人人都有发言的权利,数据的利用并不是政府、资本特定主体的特有权利,社会大众同样也具有获取和使用数据的权利。“随着数据日益成为一种与人的自我保存与自我发展密切相关的资源,数据权
也理应成为大数据时代公民的一项基本权利。”
实际上,数据获取和利用的公平性背后真正隐藏的是数据资源掌握的“不平等”。每台计算机及其公开数据是相同的,但计算机的实际操作者并不具有相同的知识水平和应用技能,因此他们对资料的分析程度不同,这就会导致网络知识结构的不平等。起初这种不平等仅仅体现在对数据占有量的差异上,但随着社会的发展,数据占有多者在大数据时代变成了“富翁”。在数据收集阶段,大部分资料都是由普通大众提供的,但资料经过收集和整理后并不属于普通大众,大部分属于政府机构、大型企业和社会组织,普通大众想要获取这部分数据需要相应的流程或者是付出一定的费用。信息数据的使用权归各种科研机构或者教育机构,他们对数据分析后做出判断。由此可见,数据虽然多来源于普通大众,但数据的所有权和使用权基本不在普通用户手中。“大数据搜集者与大数据使用者难以实现利益均沾,大数据搜集者、大数据使用者和大数据生产者则是利益与伤害不均等。”
长此以往,拥有数据的人可以为实现自身利益随意进行数据分析,普通大众则会成为被利用的对象。
在信息把关阶段,“把关人”的存在使得满足把关人价值标准与群体规范的信息得以进入传播阶段,信息接收者所收到的信息也有部分是满足“把关人”要求的,同样,大数据垄断者对数据享有解释权。若是大数据垄断者隐藏自身的不正当性政治行为,以大数据的“公正性”和“科学性”作为掩盖,他们将成为不受制于规范和伦理的人。
(六)数据崇拜传播伦理风险
“量化一切是数据化的核心。”
在一切都可数据化的时代背景下,大数据技术变革的目标转变为量化一切。当整个世界趋向高度数据化时,一个高度同质化的世界也将出现。万千事物之间的差异变得微乎其微,“人”的存在将不具有特殊性。数据并非完全安全可靠,过分依赖数据进行世界中场景的构建,将致使人类没有数据时寸步难行,并导致数据独裁。
在古代,知识匮乏,人们难以对生活现象做出合理的解释,所以神学、宗教成为人们的信仰和“权威”。如今,人们随着技术的进步以及人们思想认识水平的提高,慢慢从宗教和神学的“权威”中走出来,数据成为人们新的“权威”。人们开始崇拜数据,让数据主导行为。譬如,大数据技术能够分析人体的各项指标,从而做出最好的生活规划——选择应该吃的食物、应该做的运动等。人们不会思考数据带来的建议到底是对是错,按照数据技术给出的建议行事是否正确。人具有天生的感觉和灵感,这是机器人无法模拟的。但由于过度依赖大数据给出的理性分析,人们慢慢减少了在生活中对自身感官的使用,凡事都要借助大数据的帮助。
数据统治人类,实际上是一把“双刃剑”。在世界向着大数据时代迅速逼近的今天,我们会因为数据统治而被分析结果限制,当数据告诉我们错误的结果时,我们首先怀疑的不是数据而是自己。然而当个人对于数据处于过分崇拜或者过度使用的状态时,也会逐渐沦为狭隘之人,只经由平时接触到的数据看待周围的事物,从而成为一只“井底之蛙”。