以人民为中心:科技伦理治理的价值追求
【光明青年论坛】
编者按
随着科技进步的日新月异,世界发展的面貌和格局也发生着深刻变化。人工智能、大数据算法等新发现、新突破,在造福人类的同时,也带来了一定的伦理风险和挑战。2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,对加强科技伦理治理作出系统部署。树立正确的科技伦理意识,遵守科技伦理要求,不仅是科技工作者,更是全人类都应该具备的认识自觉和行为自觉。那么,如何增强科技伦理意识,实现科技增进人类福祉的宗旨?本刊特组织几位青年学者围绕“伦理价值”“伦理原则”“伦理责任”三个维度开展对话,并邀请专家予以点评和阐发,以期对深化相关研究和探讨有所助益。
与谈人
谭泰成 中国人民大学哲学院博士生
闫雪枫 复旦大学哲学学院博士生
周颖 上海交通大学科学史与科学文化研究院博士生
主持人
刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员
1、伦理价值:助力走出科技发展困境
主持人:针对如今的科技发展现状和发展前景,我们都面临着哪些伦理风险和挑战?
谭泰成:21世纪以来,随着运用新科技参与社会治理的不断推进,特别是智能革命兴起后,出现了“智能治理的综合”趋势,即不同技术治理手段逐渐在智能技术搭建的平台上综合起来,不再是零散的、局部的甚至相冲突的“技治拼盘”。各种智能治理措施在新冠肺炎疫情暴发以来更是迅猛发展,在大展身手的同时也暴露出一些问题,且大多与伦理风险和挑战相关。主要表现为四个方面:一是“信息孤岛”。无法接入智能平台与他者通信的人群,就会成为“信息孤岛”,在数字世界中“消失”,信息权不能得到公平保障。二是“无人困境”。智能技术如果不能与“治理中的人”很好地结合起来,人的因素容易被治理者忽视,技术问题则被过分强调,可能出现背离人本的“无人困境”。三是数据专家权力越界。要对数据专家的权力进行规范,防止技治专家权力过大,违背社会主义民主法治的基本精神。四是个人隐私滥用。尽管政府已在尽力立法对数据、个人隐私予以保护,但仍然存在不少风险。
周颖:近年来,数据被视为一种新型生产要素,与土地、劳动、资本、技术等传统生产要素一样是人类社会的重要构成。伴随数据科学与数据技术的发展,数据正在进行着对整个社会生活、生产和治理方式的重塑。在全球数字化转型的进程中,我国数字化发展备受关注且发展迅速。基于数据科学与数据技术对人类社会的深度影响,相关的伦理风险和挑战也随之而至,并成为社会各界热议的话题。比如,健康码推出不久就出现了许多没有手机或不会下载、使用该程序的群体——尤其是老年人群体,不光被技术拒绝,更被公共场所拒绝,进而加剧了社会分化、权利不平等的伦理问题,也体现出伦理在数据赋能过程中缺位带来的危害。此外,与数据相关的伦理风险还包括数据不正当获取,数据访问、使用和共享具有不透明性,数据信任危机和数据被过度商用等问题所带来的伦理风险和伦理挑战。
主持人:要走出科技发展的道德伦理困境,“伦理反思”扮演着怎么样的角色?
周颖:为了走出科技发展的伦理困境,伦理反思是必不可少的。历史地看,伦理反思贯穿技术哲学发展全过程。经典技术哲学关注的是整体而抽象的“大写的技术”,技术的伦理反思通常是悲观地批判技术的社会影响和它所造成的人类生存境况的变坏。随着德国学者胡塞尔吹响“回到事物本身”的号角,一定程度促使技术哲学更加关注经验事实,即“打开技术黑箱”,伦理反思也更加注重具体的技术经验证据。随之而来的技术的快速发展,使伦理问题愈发显现,技术伦理学逐渐从技术哲学中分离出来,进一步地,荷兰学者维贝克等主张反思进路应当“从外在主义、人本主义到内在主义、非人本主义”。从数据应用的发展来看,对隐私、安全、公平等方面进行深入的伦理反思,才能促使我国经济社会更加健康有序发展,促使大数据技术产品更新换代和数据赋能相关产业的转型升级。
闫雪枫:正如澳大利亚学者彼得·辛格所言,当面对新兴的科学技术时,许多人会产生某种直觉,但直觉未必是经得起推敲的。从生命伦理学的视角来看,伦理反思一方面能够使我们从习以为常的生活中认识到技术带来的道德困境和挑战,另一方面,借助哲学史上的经典理论框架,伦理反思能为我们在诸多彼此冲突的价值观念中提供多角度思考问题的进路,帮助我们提炼梳理对于技术的态度和观点,推理重构“不言自明”的信念背后的论证逻辑,审慎地分析其中的问题。破除科幻电影和小说的夸张情节对于技术本质的扭曲,让我们能回过头来审视一些广泛存在的规范性观念本身是否合理,进而为科学技术的研究与实践进行恰当的辩护。值得注意的是,进行伦理反思的目的不是一味地限制科技的发展。生命伦理学学者需要与科技从业者保持积极的对话,在科技发展与伦理反思中寻求动态的平衡点。
谭泰成:最近被热议的大数据治理、算法治理和区块链治理,都属于智能治理的具体形式。在各种智能治理场景中,伦理反思有助于不同主体(信息伦理学者、算法工程师、数字政府治理者和公众等)审视技术治理措施是否因超过合理限度成为技术操控手段,揭示嵌构在算法认知背后的复杂制度安排。尽管对于智能治理的伦理反思存在认知差异,但它的根本宗旨在于实现人民向往的美好生活,厘清实施智能治理应有的限度。因此,伦理反思的关键在于区别智能治理与智能操控,寻求效率工具与伦理价值之间的动态平衡。实际上,智能治理伴随着社会、政治、制度和伦理等多重风险,既有的道德批判不足以回应和化解,只有以制度化方式将德治、法治和技治手段充分融入智能治理中,才能实质性地发挥科技伦理在智能领域的治理成效。
2、伦理原则:以人民为中心推动科技向善
主持人:在《关于加强科技伦理治理的意见》的总体要求中,将“伦理先行”作为治理要求的第一条,那么,在科学技术的发展中何以“伦理先行”?
谭泰成:伦理先行需要确定相关原则及规范。目前,欧盟、美国和中国都颁布了人工智能相关的伦理指南、指导意见或规范,基本涵盖算法设计、部署和监管各个环节对于透明度和可解释性的要求。发挥伦理引导智能治理的先行作用,需要充分考虑技术专家、政府治理者、企业用户、公众等不同治理参与者的多元价值诉求,兼顾伦理的价值适配性与算法的技术可用性。需要注意的是,伦理先行并非以绝对道德主义来约束或反对技术治理活动。伦理先行的中国语境在于确保技术治理为人民服务,使之服务于中国特色社会主义民主制度的更高目标。同时,强调一般伦理原则与具体治理场景的结合,例如从道义上要求科技企业完全公布其核心基础算法并不可行。而对于公共部门而言,为了维持行政决策的执行力和公信力,有必要对算法行政决策进行充分解释,澄清背后的治理依据和价值理由。
周颖:伦理先行是技术伦理学的内在路径的必然要求。维贝克等学者提出和发展了调节的理论,将技术自身纳入解决其伦理问题的语境中。首先,在数据相关技术设计之初就需要伦理学者、技术专家、公众代表等多元主体参与并制定伦理框架、指南、原则,即在设计的目的、方法和结果预测中纳入伦理考量。例如,2020年美国联邦总务署发布的《数据伦理框架草案》中提出7条数据伦理基本原则。其次,数据相关技术设计过程作为设计者的决策过程内在地渗透着伦理价值,技术调节作用不可避免地存在着,因此,须将伦理前置,有意识有目的有方向有预见地发挥调节作用。最后,由于技术不确定性的特征,调节的各个维度不能被完全预期,许多伦理问题往往是在技术与人处于社会大背景下进行交互的过程中产生的,所以需要对技术进一步修复调节。如健康码在实施过程中显现了隐私安全等伦理隐患,在修复过程中,既制定了《新冠肺炎疫情防控健康码管理与服务暂行办法》,其中提出“为疫情防控、疾病防治收集的个人信息,不得用于其他用途”,又从技术上对健康码加以修复。经过三个维度的调节,技术自身被道德化,进而调节着人的合伦理的感知和行动。
闫雪枫:新兴技术手段往往兼具巨大的效益和风险,伦理先行也因此成了当今时代发展背景下的必然趋势。为了应对基因编辑带来的诸多挑战,科技工作者作为发展科学技术的主体,首先需要考虑的是所进行的科学研究与实践是否以人民为中心,以提升人类福祉作为最终的目标,对生命和伦理抱有敬畏之心。在开展科技工作时,要充分考虑到风险问题,提升自身的伦理道德敏感度,保证科技发展中伦理在先。新西兰生命伦理学者尼古拉斯·阿加曾强调,不要忘记历史上许多新技术都曾给人类造成预料之外的重大灾难。因此在制定伦理原则时,仍然需要考虑到一些在当下看来或许永远不会发生的情况,并给出相应的对策。科学技术不断发展,伦理原则也应当随之改进和完善,保持动态的发展,以便应对新的挑战。
主持人:《关于加强科技伦理治理的意见》中明确了科技伦理的基本原则,即“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”,其中蕴含着哪些伦理观念?
谭泰成:在技术治理活动中,服务于人民是上述原则的根本价值旨归。科技向善从根本上说就是让人民共享科技发展成果,共同引导技术治理赋能美好生活。当然,不同领域的技术治理活动对于科技伦理原则有不同侧重,例如算法治理比较强调“公开透明”。这一原则主要是针对算法运行的黑箱问题,具体化为研发者如何通过改善训练算法的数据样本质量来确保算法输出的精准度,以及企业和政府部门如何通过算法治理来提升决策效率,进而确保公共行政显得更为合理,让算法问责更具操作性。算法向善不应仅仅作为柔和的伦理观念,而是转化为敏捷的治理行动,避免因滥用算法而陷入伪技术治理。
闫雪枫:《关于加强科技伦理治理的意见》中明确的科技伦理基本原则涵盖了美国学者汤姆·比彻姆和詹姆士·邱卓思在《生命医学伦理原则》中所提出的“尊重自主性”“不伤害”“有益”“公平”四原则的内涵。与之呼应的还有2018年第二届人类基因组编辑国际峰会委员会对遗传基因编辑开展临床试验所提出的十项原则。具体来说,在进行生殖系基因编辑临床试验时,需要首先确定无其他合理替代方案,并将试验目的严格限制在严重疾病的预防上,最大限度避免试验可能造成的伤害,合理控制风险。对参与试验的患者充分告知试验潜在的风险,保持公开透明,让患者自主作出知情且自愿的决策,尊重患者的生命权利和自主性,保障患者知情权和隐私。
周颖:从数据的视角来看,相关伦理问题大致围绕隐私、安全、公平和正义四个面向展开,在个人、社会和国家的不同层面上表现不同,在不同的语境中侧重的伦理原则也有所差异,其伦理意蕴具有多元化、复杂性、交叉性和动态性等特征。不同的伦理原则在不同的技术中或具体情境中可能存在价值冲突,产生取舍的困境。对此,维贝克曾将调节理论和价值设计相结合,提出了价值发挥重要作用的方法来加以应对。简言之,将利益相关者的价值观动态地转化并内嵌到技术物中。以健康码为例,最初以保护公众健康和尊重生命权利为首要原则,在实施过程中逐步显现出隐私泄漏、不公平、不透明等伦理隐患,在修复调节中就需要加以着重考虑,将之置于价值矩阵的前端。
3、伦理责任:以正确价值导向规范科技实践
主持人:要形成多方参与、协同共治的科技伦理治理格局,需要各方主体履行怎样的伦理责任?
闫雪枫:形成多方参与、协同共治的科技伦理治理格局,首先需要科技工作者在进行研究的过程中主动加强伦理意识,自觉遵守科技伦理原则,积极与科技伦理学者进行对话和合作。对科技伦理研究者来说,需要以科学事实为依据开展对诸如知情同意、自主性等伦理问题的研究,为相关政策和原则的制定提供符合实际情况的理论支持。相关政府部门和决策者需要广泛听取来自自然科学、社会科学、人文科学的专业人员的意见建议,对特定技术的潜在风险效益以及伦理问题进行评估,建立可靠的监督机制。
周颖:就数据伦理治理而言,主体包括政府部门、数据专家、大数据技术设计者、数据伦理学者、公众、企业、高校、科研机构、社会团体等。为形成多方参与、协同共治的数据伦理治理格局,一方面,各方主体需要进行跨学科、跨范式的有效沟通,加强合作共建,凝聚力量,合力推进伦理治理实践。另一方面,各方主体应当积极履行各自的伦理责任,如政府部门,应当进一步完善相应的管理、监管制度建设;各个创新主体应当接受政府部门的管理和监督,主动学习数据伦理知识,自觉遵守数据伦理要求,依法合规地开展研究工作;伦理学者应当拓展研究的广度和深度,对比各国的研究成果,发表符合我国国情的伦理研究成果。
谭泰成:要各方履行好伦理责任并非易事。在智能治理背景下,伦理责任的首要主体是处在创新和研究一线的算法工程师和数据科学家。他们应当克服算法理性主义的狂妄,保持科技谦逊主义的态度,提升对于数据样本、算法解释的伦理敏感性。从更大的角度来看,人工智能研究的科学共同体既要勇攀科技高峰,也要敏锐地意识到创新与研究活动的潜在伦理风险和挑战。当前,技术治理的智能化趋势集中反映在公共行政领域。对于公共治理者而言,最基本的伦理责任就是要慎用手中的数据和算法治理手段,合理约束这种“技术权力”。
主持人:在人类社会深度科技化的背景下,伦理责任的难点与痛点有什么?
谭泰成:结合算法伦理的现状,与伦理责任有关的难点在于:伦理问题侧重于关切如何达成基本的共识性原则,治理问题则倾向于从公共治理角度来妥善解决技术引发的社会问题。显然,对于当下的算法治理而言,难点并不在于缺乏共识性的伦理原则,而是如何将这些原则贯彻到算法治理中。仅仅依靠顶层的适度设计是不够的,还需要配套的底层设计。在智能治理领域,与伦理责任相关的最大痛点在于:人们往往为获取服务便利,或觉得维权成本太高,不愿意与相关企业、公共部门或服务业的一些算法歧视或侵权行为进行抗争。一个重要原因是,不同年龄段、不同地区、不同学历层次的人群,对于风险感知程度不一样,这种差别反过来会影响他们采取相应行动的意愿。另一个原因是,缺乏制度化的治理参与途径,既有的维权手段也不尽如人意。
闫雪枫:新兴技术中普遍存在的伦理责任痛点与难点主要包括责任的归属、伦理审查实施的有效性,以及如何把握不同价值观之间的平衡、技术发展与伦理之间的平衡。在基因编辑的基础研究和临床试验中涉及包括科技工作者、患者、监督机构,以及政府部门等在内的多个主体。各主体的责任范围、责任权重在不同的案例中不尽相同,因此需要具体情况具体分析。此外,即便有了伦理监督审查机构,也可能存在伦理审查理解偏差、尺度不严或走过场等情况,导致审查监管方面的伦理责任不能得到切实履行。落实伦理审查,需要从多方吸纳审查人员、平衡各主体间的利益,从而保障审查是透明、客观和公正的。最后需要明确的是,伦理责任应当是科技工作者开展科研活动时的底线,不应反过来限制科技的发展。
周颖:人类深度数据化的背景下,难点与痛点之一在于仍有一部分群体游离在数据应用带来的便利之外,被数据技术拒绝,更不必说承担相应的伦理责任。以新冠应用程序中的技术拒绝现象为例,表现为一部分人游离在新冠应用程序之外,人从过去对技术的拒绝主体地位掉落下来,变成被技术拒绝的对象。表现为技术物质条件上的拒绝、技术知识和信息来源上的拒绝以及技术自身的不完善、技术漏洞或者非开放性技术权限的拒绝。该问题实质上使人与技术间的严格边界被逐步消解。技术权利提升、伦理意蕴增强的同时,人的主体性地位、权利相对就被削弱了,从而,过去人对技术“呼之则来挥之则去”的自主性不复存在,而当技术不仅成为人的生活方式,且主导了人的生活方式时,几乎无法为人所拒绝,然而却有了拒绝人类进入的能力,这是技术发展的必然结果,因此也是未来值得关注和深入思考的问题。
人工智能治理体系的制度构建研究
【摘要】人工智能是新一轮科技革命和产业变革的重要驱动力量,正在推动人类社会进入智能时代,并成为事关发展全局和国家安全的基础核心领域。传统社会治理面临的技术环境正在发生革命性变革,以人工智能治理为代表的科技治理进入新的历史阶段,构建人工智能治理体系是推进国家治理体系和治理能力现代化的重要内容。本文从人工智能发展现状面临的挑战角度分析,提出有关人工智能治理体系构建思考,旨在提供新的视角和可行路径。
【关键词】人工智能;治理体系;信息安全;制度构建
引言
人工智能是新一轮科技革命和产业变革的重要驱动性力量,正快速成为社会的底层架构和操作系统并引领深刻变革。人工智能是人类迈向数字文明时代的先驱力量,是数字经济发展的强大动力,是中国式现代化的核心竞争力。世界新一轮科技革命和产业变革与我国经济迈向高质量发展阶段的交汇期既面临着历史机遇,更面临时差距拉大的严峻挑战。当前我国在人工智能领域具有市场、人才、制度等方面的优势,在人工智能发展对传统行业与产业带来变革的过程中,也逐渐暴露出伦理规范、价值导向、版权纠纷、信息安全、就业环境、公共安全等风险。构建人工智能治理体系是当前和未来社会治理面临的新课题。本文从人工智能面临的风险与挑战、国际国内治理现状、制度建设、政策监管、技术能力、应用环境等角度进行分析并提出治理对策建议。
一、人工智能发展面临的风险与挑战
1950年艾伦图灵在其论文《计算机器与智能》(ComputingMachineryandIntelligence)中提出了著名的“图灵测试”,给出了判定机器是否具有智能的试验方法,1956年达特茅斯会议(DartmouthConference)提出人工智能的概念以来,随着计算技术理论创新、大数据沉淀积累、算力性能提升和深度学习算法的突破,数字经济与实体经济加快融合发展,近年来以生成式对抗网络(GenerativeAdversarialNetwook,Gan)、深度残差网络和视觉Transformet神经网络模型为代表的深度学习算法成功实践并迅速迭代更新。2021年美国OpenAI公司推出的ChatGPT人工智能生成内容(AIGC),能够以优于人类的生产能力和知识水平承担信息挖掘、素材调用、复刻编制等机械式生产劳动,进一步实现与传统产业的融合渗透并开创出新业态、新模式和新产业,逐渐建立现实世界到数字世界的映射与数字孪生,创造出数字经济发展新的增长极。习近平总书记多次对人工智能的重要性和发展前景作出重要论述,他指出:“人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的‘头雁’效应。”“加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手。”“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究。”以人工智能为代表的新技术革命使得传统的生产函数底层架构发生根本变化,培育出新的生产要素与生产方式。加快人工智能创新发展,促进人工智能与传统产业深度融合并赋能,是我国建设制造强国、质量强国、网络强国、数字中国的重要途径,对于转变经济发展方式、加快建设创新型国家和世界科技强国,推进高质量发展和构建新发展格局具有重要意义。
随着以深度学习、跨界融合、人机协同、群智开放、自主操控为特征的新一代人工智能技术持续创新突破,人工智能技术异化也产生出新的治理盲区,围绕公平、责任、安全等方面的风险日益增长,并引发伦理、道德、法律、文化、宗教、哲学等社会意识形态及法律制度的变化及挑战,将对传统生产方式和社会形态带来深刻变革,也对数字经济时代人工智能治理体制和治理模式提出了新的要求。
(一)人工智能生成内容的风险
2023年3月3日,OpenAI对外开放ChatGPT和WhisperAPI,其中ChatGPTAPI的价格为0.002美元每千个Token,标志着人工智能生成内容(AIGC)正式进入商业化应用阶段,美联社智能写稿系统Wordsmith能够每秒创作2000篇新闻,第一财经DT稿王每分钟可写作1680字,ChatGPT的自然语言处理工具已能够通过理解和学习人类的语言进行对话。人工智能迅速发展应用过程中,逐渐显露出存在的风险。如其关键的算法模型在透明度、鲁棒性、偏见与歧视方面存在固有技术局限,人工智能算法结果来自海量数据的采集,其依托的数据本质是社会价值观的映射与孪生,可能导致偏见与歧视信息反映到训练结果中,沉淀的大数据导致的算法结果可能造成内容结果的失真和违背伦理道德、哲学规范甚至法律法规。深度学习和强化学习算法模型运行规律及逻辑的不透明,存在不可预知的信息黑箱和无法解释的输出结果,其不透明、自适应、自学习的特性使得算法运行极易受到历史数据、算法模型、训练方法的干扰而出现非鲁棒性特征。加之技术的不可控也将导致信息安全风险、侵犯个人隐私和造成数据滥用等。随着机器深度学习生成的内容日益完备、应用场景日趋普及并通过互联网触达终端用户,如身份识别、内容生产、在线教育、“变声”“换脸”等技术应用引发的虚假信息、不良信息甚至违法违规内容的产生,引发出伦理道德和文化价值风险。伴随着人工智能技术的分散性、流动性、隐蔽性和大规模传播,更将直接辐射并影响网络内容生态。人工智能治理实践中面临着未知性、技术管理难度和复杂性等风险,现有条件对其风险的预测、防范和处置能力均不完备,更缺乏有效的治理方法和技术手段,在受到内部威胁或外部攻击时将引发网络内容生态安全风险。
(二)人工智知识产权的风险
我国现有知识产权法律体系规定了法律主体的权利和义务,人工智能通过机器生产出的内容成果难以获得知识产权的保护,导致人工智能创造的作品存在著作权归属不清的问题。如2020年美国查普曼大学利用OpenAI大模型GPT-3创作剧本并制作短片《律师》、海马轻帆的“小说转剧本”智能写作系统等涉及著作权问题。人工智能的知识产权界定不清晰明确,一方面将造成人工智能包括AIGC创造的作品著作权归属难以界定且无法受到法律保护,从而阻碍技术创新的动力并发挥创作价值,另一方面也会导致人工智能所依赖的海量基础数据及算法成果稀释原有创作者的独创性,侵害原权利人的合法知识产权。
(三)人工智能的就业风险
麦肯锡全球研究院《人工智能前沿记录:人工智能对全球经济影响的模拟计算》报告提出,全球高达50%的工作可以被机器人所取代,近六成工作岗位中30%的工作量可以被机器代劳,到2030年全球约8亿人的工作将因人工智能发生变化,预计我国约有1.1亿人的工作被自动化所取代。随着人工智能直接替代传统劳动岗位,或是填补劳动者所无法胜任的岗位以及催生出新的就业岗位,将引起技术性失业和就业结构失衡,由于人工智能的技术壁垒产生出新一轮市场垄断,将对不同产业、行业、群体和阶层之间的分配关系产生影响,带来贫富差距及分配正义等系列问题。
(四)人工智能的安全风险
人工智能产品及服务直接作用于社会,人工智能深度学习模型本身具有脆弱和易受攻击等缺陷,其系统本身存在高度不确定性,技术漏洞更为复杂,原始数据的添加扰动将会使系统作出错误判断并引发可靠性、安全性的问题。当前基于人工智能的自动驾驶、人脸识别、自动生产、智慧城市等技术已经普遍落地应用,人工智能技术已具备相当程度的自主学习和分析决策能力,其行为本身存在不可解释性和不可预见性,在技术层面针对人工智能的安全标准、技术体系、评估规范、监测和检查技术仍在探索中。在法律层面现行的法律法规尚未明确界定人工智能在设计、生产、消费、应用等环节涉及各方主体权利和义务,导致相关法律责任认定和划分难度的增加。如自动驾驶汽车因人工智能算法导致的交通事故、机器自动生产故障导致的伤亡事故、智能医疗设备错误诊断结果导致的误诊、自主武器产生误判对人类生命造成的威胁、人类思考能力对人工智能结果的过度依赖产生的认知偏离风险,以及Neuralink大脑芯片植入计划带来的人体实验风险等。由于人工智能的技术自主性导致的责任主体不明等问题,对现有的法律法规和治理体系产生出新的挑战。
1931年爱因斯坦即指出:关心人的本身,应当始终成为一切技术奋斗的主要目标,以保证我们的科学思想成果能够造福于人类,而不至于成为祸害。人工智能将把人类带往何处,已经成为深刻的哲学命题。进入数字经济时代,传统的技术治理手段和治理体系已不能适应新一轮技术革命的需要,人工智能的发展对治理方式和治理水平均提出了全新要求,加强人工智能的治理已成为全球共识,并从理论探讨阶段进入实践探索的前沿,有效协调技术创新发展与有效规制之间的平衡,构建具有中国特色的人工智能治理体系是推进国家治理体系和治理能力现代化的重要内容。
二、人工智能治理的现状
全球各国正加快探索和研究人工智能治理方法,各主要国家均提出坚持以人为中心的基本治理理念,并从伦理原则、倡议共识向可信评估、操作指南、政策法规等层面开展治理实践。美国将人工智能治理列为《国家人工智能研究和发展战略计划》,要求将如何表示和“编码”人类价值和信仰体系作为重要课题研究,建立符合伦理的人工智能,制定可接受的道德参考框架,实现符合道德、法律和社会目标的人工智能系统整体设计。欧盟发布《可信人工智能伦理指南》《欧盟人工智能白皮书》强调“可信人工智能生态系统”的重要性,要求坚持“以人为中心”的发展原则,推动发展符合欧洲伦理与社会价值观和民众愿望的人工智能,确保人工智能技术能够给个人和社会整体带来福利。英国政府发布《国家人工智能战略》指出,倡导反映我们价值观的国际标准,确保英国正确治理人工智能技术,以鼓励创新、投资并保护公众和英国基本价值观。2017年1月,在美国加州阿西洛马举行的BeneficialAI会议上,近干名人工智能和机器人领域专家联合签署了《阿西洛马人工智能原则》,呼吁全世界在发展人工智能时共同保障人类未来的伦理、利益和安全。2019年G20通过的《G20人工智能的原则》倡导以人类为中心、以负责任的态度开发人工智能。2019年9月,联合国《特定常规武器公约》确立了致命性自主武器系统运用的11项指导原则。2021年11月,联合国教科文组织在法国巴黎发布了《人工智能伦理建议书》,成为全球首个针对人工智能伦理制定的规范框架,明确了规范人工智能技术的10大原则和11个行动领域,为制定人工智能发展的国际法规和技术标准提供了遵循。谷歌、微软、亚马逊、Meta、华为、腾讯、阿里等企业均成立人工智能治理专门研究机构,通过发布伦理原则、制定内部规范、研发技术工具等措施,加快建立治理规范体系。
2020年我国人工智能企业达到1454家,位居全球第二,人工智能产业规模达3031亿元,高于全球增速。我国高度重视人工智能产业发展中的治理问题,近年来相继颁布了《数据安全法》《网络安全法》《个人信息保护法》《民法典人格权编》《网络数据安全管理条例》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等法律法规。2017年7月国务院在《新一代人工智能发展规划》中提出:要制定促进人工智能发展的法律法规和伦理规范;开展人工智能行为科学和伦理等问题研究;制定人工智能产品研发设计人员的道德规范和行为守则。党的十九大报告在全球首次提出实施智慧社会战略,提升社会治理智能化水平。2021年“十四五”规划和2035年远景目标将人工智能技术及其治理纳入国家规划,要求加快人工智能核心技术突破及产业化发展,同时要高度重视人工智能治理体系建设。2021年9月国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求,保障人类拥有充分自主决策权,确保人工智能始终处于人类控制之下。
三、加快构建人工智能治理体系我国始终坚持以确保人工智能的安全和平等为底线,在此基础上鼓励创新并赋能经济社会发展。构建人工智能治理体系与推进国家治理体系和治理能力现代化叠加并进,智能技术与治理实践正加快融合和相互促进。国务院在《新一代人工智能发展规划》中提出:“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。充分预见人工智能可能带来的安全风险挑战,加强前瞻性预防与约束引导,加快构建负责任的人工智能治理体系,最大程度降低和化解风险成为当前十分迫切的任务。同时,人工智能治理是一项复杂的系统性工程,人工智能所带来的风险更具复杂性、长期性和全球性,既需要坚持科技造福人类、安全与发展兼顾的治理目标,平衡创新发展与有效治理的关系,更需要提出切实有效的治理举措,保障人工智能始终安全、可靠、可信、可控。
(一)坚持正确的价值导向
人工智能的治理原则应建立在正确的价值观基础上,人工智能发展初期在强化基础数据归集、算力资源布局、算法开源平台等基础能力建设的同时,相对于立法的滞后性,应加快伦理规范的引导,保障其发展方向的价值导向并可管可控。通过依法加强对原始数据内容的监管,界定人工智能技术提供者、内容传播者和应用方的法律义务和社会责任,维护公民精神上的尊严与平等。针对深度伪造技术和虚假内容生产传播、创作者信息披露和标注生成内容、信息内容鉴别等,制定分类分级和安全标准体系,以及未成年人保护、动态评估、规则制定、权益保护、协同监管的人工智能治理模式,依法保障网络安全、文化安全和科技安全。
(二)加快治理技术工具的研发应用人工智能的治理技术包括数据治理、信息治理、算法治理、算力治理、场景治理等领域,需要依靠精准、高效、合规的治理方法及工具强化全过程、全流程和全生命周期的监管,确保人工智能始终处于人类控制之下。目前全球领先的科技企业均在积极开发运用数据筛选、算法设计、模型优化等技术工具,针对隐私泄露、算法偏见、非法内容审核等治理问题进行深入研究。如华为将差分隐私、协同过滤等技术应用于算法训练等数据使用过程,保障人工智能应用的安全可控。当前需要进一步深化治理理论及规则的研究,加强人工智能基础理论、可解释算法、可信人工智能评估测试等技术研究,加快构筑具有针对性的一体化、全链路标准体系和治理工具,支持和鼓励算力基础设施企业和算法企业加强合作,将安全技术工具集成到人工智能算力基础设施中,逐渐形成安全可靠的技术保障环境。
(三)建立法律法规制度
人工智能的非法应用及技术算法漏洞对伦理道德、隐私权益、财产安全、系统安全等带来风险和威胁,人工智能所带来的责任归属界定、隐私泄露等问题不断挑战现行法律法规,同时人工智能技术具有相对独立于自然人的智能属性,当前对人工智能的法律责任划分及其法律地位存在较大争议。在司法实践中需要采取包容审慎、灵活弹性、坚守安全的治理模式,既避免阻碍人工智能技术创新发展,更要适应技术快速迭代需要,既要通过法律法规加以规制,更要用文明和伦理赋予其更多开放弹性。2022年9月颁布的《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》作为我国首批人工智能产业专项立法,在促进人工智能产业发展提供法治保障的同时,明确指出从事人工智能研究和应用的组织或者个人,应当遵守人工智能伦理安全规范,不得从事危害国家安全和社会公共利益、侵犯个人隐私和个人信息权益、实施价格歧视或者消费欺诈等七类行为。人工智能技术的发展对新的法律规制提出了现实要求,在没有完整制定人工智能法律体系框架的条件下,需要针对人工智能细分领域,逐步健全完善现有法律法规,构建与人工智能发展相适应的市场准入、市场秩序、技术创新、数据安全、知识产权、安全保障等法律体系,强化人工智能的市场准则和监管措施,对人工智能进行适度且有效的法律规制,确保人工智能技术可管可控可纠,有效保障公民权利和技术的创新发展。
(四)建立标准规范体系
标准化工作对人工智能及其产业发展具有基础性、支撑性、引领性的作用,既是推动产业创新发展的关键抓手,也是产业竞争的制高点。目前欧盟、美国、日本等国家和地区均高度重视并大力推进人工智能标准化进程。国务院《新一代人工智能发展规划》将人工智能标准化作为重要支撑保障,明确提出“要加强人工智能标准框架体系研究,逐步建立并完善人工智能基础共性、互联互通、行业应用、网络安全、隐私保护等技术标准。”当前重点需要在卫生、交通、制造金融、传媒等直接关系人民生命财产安全的人工智能应用领域,加快制定相关行业标准规范,保障人工智能产品质量及服务的稳定。通过建立以算法为核心,以数据和硬件为基础,以人工智能安全可控为导向,开展术语、参考框架、算法模型、技术平台等重点急需标准的研制,建立人工智能算法评估规范、伦理规范、行业安全标准、数据安全规范、应用安全规范等,使人工智能系统始终遵循和服务于人类的伦理规范,实现人工智能系统全生命周期的安全、可靠、可解释、可问责及可控运行,防止人工智能达到或超过“技术奇点”,确保人工智能系统可被人类全流程监督并及时接管。
(五)完善社会保障制度
针对未来人工智能所带来的产业结构升级和就业环境变化,需要充分发挥社会基本保障制度的作用,针对可能被人工智能替代高风险类别的就业人群,加强在岗或转岗职业培训,缓解因人工智能使用对从事常规性、结构化和重复性工作的劳动力带来的失业问题,维持传统劳动力市场的稳定。同时需要加快引导并发挥劳动力在创造性、灵活性、无法替代性工作岗位的优势,调整和优化教育结构,通过教育培养感知类、创造性和社交能力的技能和知识,培养在未来执行复杂的并难以被人工智能所替代的工作岗位,防范“人工智能鸿沟”带来新的就业排斥,通过实现人机之间的高效合作互补,不断增强人才竞争优势,降低失业率和失业周期,有效缓解人工智能引发的就业及社会保障问题。
(五)建立协同治理体系
2023年3月,中共中央、国务院印发《数字中国建设整体布局规划》指出,要优化数字化发展环境,建设公平规范的数字治理生态。人工智能治理的重要特征之一是治理主体的多元化和治理手段多样化,需要打造多元主体参与、多措并举、协同共治的治理机制,构建包括立法机关、政府部门、研究机构、市场主体、行业协会、社会公众等各方参与治理机制。特别是处于人工智能创新研究最前沿的人工智能企业更要担负起社会责任,切实履行维护伦理道德和信息安全的义务。社会应大力鼓励并支持头部企业、科研机构和行业专家加强治理技术能力研究创新,不断提升人工智能的成熟度、稳定性和抗风险能力,通过制定联合公约、标准规范、行动指南、行动准则等行业规范,构建全社会在技术、内容、应用、服务、监管等领域共建、共管、共治的发展环境,促进人工智能繁荣健康发展。人类历史上两次工业革命,均是利用机器替代人类的体力劳动并解放生产力,未来人工智能必将替代人类的脑力劳动并极大提升人类社会的思考能力,创造出新的生产力。有效应对人工智能带来的风险与挑战,协调人工智能发展与治理的关系,推动构建系统完备和适宜我国国情的人工智能治理体系,确保人工智能安全、可控、可靠,是保障人工智能成为促进社会有序发展、共享发展、公平发展、开放发展、和谐发展的基础。
参考文献
[1]张文魁.数字经济的产业组织与反垄断—数字市场全球治理及中国政策[M].北京:中国人民大学出版社,2023:224-235
[2]陆兴海,彭华盛.运维数据治理—构筑智能运维的基石[M].北京:机械工业出版社,2022:144-158
[3]伦一.人工智能治理相关问题初探[J].信息通信技术与政策,2018(6):5-9.
[4]Nissenbaum,H.Privacyincontext:Tenchnology,PolicyandtheIntegrityofSocialLife.PaloAlto:stanfordUniversityPress,2010:129-214
[5]Waldman,A.AstatisticalAnalysisOfPrivacyPolicyDesign.notreDameLawReviewOnline,2018,93(1):159-170
[7]陈思.算法治理:智能社会技术异化的风险及应对[J].湖北大学学报(哲学社会科学版),2020,47(1):158-165.
[8]蒋洁.风险视域下人工智能伦理的主旨和原则[J].信息通信技术与政策,2019(6):13-16.
[9]杨婕.推动完善我国新一代人工智能伦理治理体系[J].信息安全与通信保密,2020(1):93-101.
[10]谭九生,杨建武.人工智能技术的伦理风险及其协同治理[J].中国行政管理,2019(10):44-50.
[11]韩凯峰,詹远志.推动构建人工智能治理体系持续优化人工智能政策环境[N].人民邮电,2020-08-21(007).
作者姓名:谭继宁
所在单位:云南省文化和旅游厅
曾在昆明市政府信息化办公室、云南省文化厅、云南省文化和旅游厅长期从事信息化建设和信息产业发展研究及实践工作。
青记独家丨人工智能时代的网络舆论暴力治理
导 读
平台应打破“算法黑箱”,多元优化算法机制;政府应着力优化监管环境,完善相关法规政策;个人应发挥主体作用,提升个人媒介素养,从而形成网络舆论暴力的多元治理格局。
网络舆论暴力是一种软暴力手段,施暴者往往通过发布虚假消息、公布他人隐私、放大社会情绪或制造网络舆论,形成网络言论压力,进而引发网络舆论空间的集体偏向,使施暴对象受到精神困扰甚至身体伤害。随着算法和人工智能技术的发展,当前网络舆论暴力形式变得更加复杂多样,包括心理压迫、身体暴力、身份边缘化、言论管束、网络骚扰等。与此同时,针对网络舆论暴力的治理也变得更加困难。
人工智能时代
网络舆论暴力的主要特征
随着算法技术的发展和社交媒体的兴起,基于算法的个性化内容分发及社交链条圈层式传播开始代替传统的单向传播链条,成为当前内容传播的主要方式。网络舆论暴力也随之呈现新的特征。
(一)算法技术滋生网络舆论暴力空间
随着大数据的多元汇聚和计算能力的不断进步,算法新闻、算法经济、算法伦理等新兴概念出现。“作为权力的算法”的观点已得到越来越多学者的关注。
一方面,算法技术构造了网络信息交互空间,并为“网络暴力”的产生提供了一个主体多元、责任分散的舆论场域[1]。针对网络暴力的各种具体行为,无论是暴力语言、暴力行为,还是隐私披露,都需要一定的公共空间来进行呈现。而经由算法构造的网络信息交互系统正提供了这样一个舆论场域。通过算法技术对网络信息的标签化分发和推送,能够轻易聚合基于各类共同点而形成的地缘、业缘、趣缘群体,进行超时空、超文本的信息沟通和交流,尤其是一些社会边缘人、草根群体等弱势群体,他们数量庞大、身份虚拟、来路庞杂且责任分散,网络空间为他们提供了一个表达现实不满及抒发愤懑情绪的集体意见场域,极易形成极化群体优势意见和网络暴力的表达空间,从而制造出众声喧哗的“舆论广场”。
另一方面,算法技术在网络信息来源的环节中越来越多地应用,机器人写作、自动化新闻、算法新闻等相继出现,成为网络空间中独立于传统媒体和政府之外的重要消息源,这意味着算法具备了形成新的社会情感表达和舆论空间的能力。目前,计算宣传作为一种操纵网络舆论的新形态,可以通过伪造信息或活动“制造同意”,产生“虚假民主”;通过“两极分化”扰乱公共领域,撕裂社会共识[2],加剧了信息来源的复杂性及新闻真实性的把控难度,使得网络舆情数据呈现出一定程度上的失真。
(二)算法逻辑放大并加速网络舆论暴力的传播
在智媒环境中,互联网的高传播速率可以跨时空地使舆论信息快速地在网络中扩散,而平台算法逻辑的应用,更是加剧了这种舆论传播效果[3]。当热点事件经由智能算法即时推送给网络社区的用户后,网民会首先找到一个对象进行怀疑批判,并以此为基础开始聚合用户群体。当相同价值偏好的意见被算法集中到一起时,群体的意见和情绪开始被进一步强化,并反映到实际的网络舆论暴力行为中,通过谩骂、诽谤、人肉搜索等行为得到释放。而这一切过程的快速形成均是在确认事实真相之前。算法并不会判断信息的真伪,其本质是商业逻辑,只要是符合流量规则的信息都会被第一时间推送给用户。最终导致群体的情绪意见极化形成网络舆论暴力,甚至左右事件的走向,干扰司法审判。
如2021年“货拉拉跳车事件”在舆论场的快速发酵,仅3天时间累计生成12.53万条相关信息。而当后期货拉拉平台各项整改措施上线后,关注度较之前出现断崖式下跌。这表明,针对此类网络事件,多数网民的关注点并非在推动司法完善以及维护社会正义等公共利益之上,而仅仅以此作为宣泄情绪的通道从而制造集体狂欢。当热点事件消散,智能算法不再抓取推送之后,用户也就不会主动关注了。相比传统媒体时代,人工智能时代网络舆论暴力扩散的速度呈几何倍的增长,网民在舆论场中迅速打出一枪,实现自我快感,引爆话题,而后便转向下一个话题。
(三)算法歧视强化用户标签化分类
智能算法的精细化推送背后存在着大量的算法歧视,通过标签化分类用户,在为其提供更加迅捷高效的推送结果的同时,也会对其社会认知、价值判断甚至行为选择产生影响。“给用户贴标签”是对用户信息进行分析后,通过对用户的信息偏好、使用习惯等设置标签,提取目标用户特征,为用户画像模型构建提供关键信息标记的过程[4],这主要通过算法的群组化分类技术实现。算法模型通过分组方式对个体进行解析,使个体在庞杂的网络社区中根据自身的行为特征、价值倾向等被分类到一起,与其他个体共同组成一个个单体式的网络群组。平台由此便能够以集群的方式对个体进行操控,并在这一过程中以“贴标签”的方式破坏个体的完整性,强化用户的标签化属性。
这种群组化、规模化的算法歧视增强了数字对人的干预能力,平台管理者依靠算法不断对人进行数据分类与社会分层,从而导致网络世界中算法歧视的扩散和升级。具有某类特征的信息,往往以群组化的方式推送给贴有对应“标签”的圈层用户。这类用户在身份地位、价值取向、使用偏好上或多或少地存在相近性,因而面对一些容易引发争论的社会现象时,更容易产生立场一致的观点,迅速扩大舆论声量,向群体极化方向发展,从而导致网络舆论暴力的发生。
人工智能时代
网络舆论暴力的形成动因
人工智能时代,网络舆论暴力的产生与扩散受到技术环境、社会环境、媒介环境的多重影响。挖掘网络舆论暴力的形成根源、厘清生成逻辑,审视网络舆论暴力行为发生的症结,是治理网络舆论暴力、营造良好网络舆论环境的重要前提。
(一)技术环境:算法权力重构网络空间秩序
规制算法权力是建立网络空间秩序的重要命题[5]。人工智能时代,算法通过对数据的占有、处理与结果输出,演化为资源、商品、财产、中介甚至社会建构力量[6],从而重新分配网络空间各主体力量,重构网络空间秩序。随着算法技术对网络空间资源的把控不断增强,平台与用户之间通过算法逻辑形成了“管理与被管理”的支配关系。平台规则通常被嵌入算法结构,用户在移动端的每一步操作,都是算法精心计算的结果,平台经营者从而实现借助算法技术获取用户流量、影响用户权益,甚至左右用户的意识形态观念,以至学界提出“代码即法律”的论断和算法权力概念。算法权力正在对数据、身体甚至社会生活进行定义,已然形成一种“准公权力”。因为算法权力并不把网民当成网络空间的“主体”来对待,而是作为可计算、可预测、可控制的客体[7]。
传统的算法主要通过两个步骤层次对网络空间产生影响:第一层是算法设计,设计者依据实际需求编写算法模块代码,经由算法决策输出决策结果;第二层是算法应用,企业根据商业目标,改进算法的决策目标,进而对算法代码进行部署与应用,从而维护其商业利益。人工智能时代,智能算法技术的发展催生了算法发挥效力的第三个步骤层次:算法的自主决策[8]。智能算法能够根据大数据进行自主学习生成决策规则,其背后算法逻辑的不可见性和数据的复杂性导致人类无法窥知算法决策的具体过程,从而使算法成为调配网络空间秩序的主要力量。Donovan和Suzor认为,平台的算法黑箱本身就是一种象征性暴力,不仅在全球范围内主导着公共话语,同时以不透明和不可见的方式对其进行控制。[9][10]同时,平台算法机制以诱导观点的方式控制网络舆论环境,从而在网络世界中构建具有思想倾向性的虚拟现实。[11]出于平台商业逻辑,爆点话题、争议性话题、价值偏向性话题常常成为平台算法推送的首选,且由于算法知悉用户偏好,用户认知与行为时刻受平台诱导以及热点信息的“胁迫”,从而加剧网民对网络信息的暴力性、冲突性认知框架和刻板印象。
(二)社会环境:群体极化心理刺激暴力产生
网络社会中,用户群体的情绪极化往往与某热点事件的迅速生产与传播密切相关。当前信息环境中,当现实社会中突发热点尤其是公共卫生事件时,网络社会往往能立即进行信息的生产和传播,导致群体的情绪向极端化发展。一旦在连续反复的传播过程中形成“沉默的螺旋”“过滤气泡”,网络舆论暴力往往汇聚大量“围观群众”。由于互联网的开放性和匿名性特征,在多主体参与的网络暴力事件中很难找到准确、具体的行为主体。这就使网民可以在其中肆无忌惮地发表言论,进行情感宣泄,不会意识到自己的参与行为可能对受暴者造成何种恶劣影响。因而,网络舆论暴力在社会心理上具有隐蔽性,网络暴民抱着“法不责众”的心态,加入施暴浪潮。
这种群体极化的社会心理产生的根源在于两方面。一方面,经济快速发展导致的社会阶层和认同分化,致使社会情绪不断郁积并涌向网络空间,形成网络舆论暴力。经济贫富的差距滋长了弱势群体的相对剥夺感,因而面对那些能够激发他们现实缺失感的新闻信息,他们往往产生一种扭曲、暴戾的偏执情绪。一旦某类涉及社会不公的信息经由网络曝光,并通过算法推荐的话题标签,受众即便彼此陌生,也极易对此类敏感事件形成共鸣,产生暴力的“集体链式反应”。另一方面,网络社会中真假难辨的海量信息强化了受众的风险感知。“去身份化”的网络社区互动行为造就了一个更为陌生的数字化世界,网络信息的多元化来源、扩散性流动,消解了传统媒体单向度、中心化的信息传播模式。面对汹涌而至的信息洪流,“不明真相”的人们往往不知所措,这无疑强化了自我风险感知度,加剧“生存性焦虑”[12]。
(三)媒介环境:传统把关人的缺位推动暴力升温
传统的新闻把关人依据自身新闻价值观,以及对新闻要素的把握,对新闻事实进行内容编辑和核查。随着算法技术的发展,传统新闻把关人的地位弱化,其所具备的把关与议程设置功能逐步让位于算法。为了降低相关成本,平台也往往倾向于使用人工智能和算法技术来管理网络信息内容。算法通常根据平台写入的运行规则进行计算,对海量的、碎片化的信息进行筛选,并判断事实,影响网民的价值判断。因此,对内容和受众的把关权一定程度上开始转让给了算法。
然而,算法技术始终有限,许多情况下经常无法检测到细微而复杂的暴力语言。JuliaR.DeCook等人(2022)综合初始代码,对Twitter、Facebook和YouTube等社交媒体平台在2021年3月至2021年7月期间提出的政策文本进行了数据收集,捕捉网络舆论暴力的描述性类别及其话语框架,发现没有一个平台提供了网络舆论暴力的直接定义。而网络舆论暴力是通过特定暴力的类型或构成暴力内容的示例进行预测的。例如,Twitter提供了“身体”“心理”和“信息”伤害的定义和示例;Facebook的算法依赖于暴力行为的特征;YouTube只包含最狭隘的暴力行为描述,将潜在的暴力行为限制为“身体伤害”“死亡”和“煽动敌意”[13]。由此可见,现阶段算法作为把关者,在内容敏感度、深度方面,特别是在涉及暴力的敏感议题识别上暂时还无法完全替代传统把关者。一旦网络暴力元素未能被算法识别,便有可能在网络社区迅速传播,造成重大网络暴力事件。
人工智能时代
网络舆论暴力的治理路径
网络舆论暴力的治理,离不开算法技术的优化、监管环境的保障以及网民个体的参与。因此,应构建多元协同参与的网络舆论暴力治理格局,开展现行网络场域的媒介治理,构建科学的网络舆情暴力综合治理体系,促进网络舆论生态环境向善发展。
(一)平台:打破“算法黑箱”,多元优化算法机制
网络舆论暴力的治理离不开平台的算法审查。当前,社交媒体平台越来越多地承担起生产、分发和监管的责任,并不断增强其对数字平台内容的管理和干预。Facebook于2018年发布的《社区标准》中提道:“仅仅删除违反社区标准的内容不足以阻止屡犯者,因而每次我们删除内容时,都会追究整个主页和内容发布者的责任。”Twitter于同年发布《Twitter规则:一份动态文档》,抵制有针对性的网络骚扰、威胁、暴力等。此后,Facebook于2022年更新的服务条款中明确赋予了平台删除内容或账户的权利[14],并对相应的用户上诉权、算法透明度及决策问责制进行了制度化规定。内容标准和审核策略旨在确保应用程序的一致性并允许对它们进行算法编码,因此可以在人工审核的同时应用某种程度的“大规模”机器审核[15]。
随着平台透明化的呼声日渐增强,Twitter首先迈出了算法透明化的第一步,于2023年3月31日发布《Twitter的透明新时代》,向全球社区开放了大部分源代码,同时加密与用户相关的训练数据或模型权重,来确保用户安全和隐私。此后,又于2023年4月25日发布《Twitter透明度报告的更新》,根据2022年1月1日至6月30日的算法数据,Twitter要求用户删除违规内容6,586,109条(较2021年下半年增长29%),并删除了1,618,855个违规账号。
平台治理的算法决策表现出较强的同构性[16],这一方面体现在各社交媒体平台针对网络舆论暴力政策的共同演进——平台间的相互学习促使有关暴力言论、虚假信息的政策不断完善;另一方面,平台算法的不断优化使网络舆论暴力行为的治理由平面审查变为动态监管。
针对网络舆论暴力的预防与整治,我国社交媒体平台也做出了许多尝试化探索。如微博、小红书等利用私信的临时对话设定功能,限制陌生人在对方未回复前,每次只能向单个用户发送一条信息,尽力拦截不当言论。2022年6月,抖音上线“一键防暴”功能;同时,通过平台主动联系可能存在网暴风险的用户,提供防暴指引和帮助。
(二)政府:优化监管环境,完善相关法规政策
重塑平台及算法权力是完善监管制度、优化监管环境的必要前提。新加坡政府于2022年6月拟推出《互联网安全行为准则》,对网络媒体运营商和从业者的网络行为准则做出规范,敦促平台履行特定义务,如删除敏感关键词和不安全性言论及内容;并于2022年11月通过《通讯网络安全(杂项)法》,授权政府部门对社交网络平台带有恶意内容的帖子进行审查和强制删除,从而加强对网络平台的管控;同时借助实施《互联网操作规则》《行业内容操作手册》来构建平台自律管控体系。
Dijck提出,只有扩大法律监管的范围,以包括网络舆论暴力所嵌入的所有主体,才能改善算法带来的权力不对称[17]。在这方面,美国形成了较为成熟的网络暴力治理体系。早在2009年,美国政府就出台了《梅根·梅尔网络欺凌预防法》,规定了“利用电子手段进行严重的、重复的、敌对的行为,意图强迫、恐吓、骚扰或对他人造成实质性的精神困扰的”,均构成联邦犯罪[18]。在推进政策法规建设的同时,美国政府还重视网络安全技术的发展,如建立网络分级制度标准、完善信息管控和屏蔽技术、加强对内容的关键词检索和过滤把关,以实现对网络舆情的动态化治理[19]。在欧洲,德国的《网络执法法》(德国法律档案馆,2017年)和欧盟委员会的《打击非法仇恨言论行为准则》(2016年)均已生效,实现了政府与社交网络之间关于网络舆论暴力治理的互动合作,包括定期开展监测,评估行为准则的实施情况等。Facebook、YouTube、Instagram、TikTok等先后加入该行为准则,并已于2022年底开展行为准则的第7轮监督[20]。
为依法打击网络舆论暴力行为,营造良好的网络舆论环境,2023年6月9日,我国最高人民法院、最高人民检察院、公安部发布《关于依法惩治网络暴力违法犯罪的指导意见(征求意见稿)》,面向社会公开征求意见。该意见稿明确界定了网络诽谤、网络侮辱、侵犯个人信息等网络舆论暴力行为,为准确把握网络舆论暴力行为的认定标准提供法律依据;同时依法规范网络舆论暴力行为的诉讼程序,加强对网络舆论暴力治理的规范性和合法性。其颁布与实施能够有效实现网络舆论监管环境,以法治建设保障网民的合法权益,切实完善网络舆论综合治理。
(三)个人:发挥主体作用,提升网络媒介素养
基于网络社会与现实社会的互动关系,对网络舆论暴力的治理,最终还要落实到人[21]。网络社会是“网”与“人”的结合,因而,网络社会治理,重点在于“网”治,关键还在于“人”治。随着用户在网络舆论治理中的作用不断凸显,部分地区和平台已经出现将内容审核控制权移交给用户的“个人问责”制度[22]。如YouTube采用“用户+AI”的双重审查方式进行监管:依靠深度学习算法对有风险的内容进行第一轮审查,并采用投诉报告机制,然后让用户完成大部分视频内容的审查工作,以寻找AI察觉不了的暴力元素[23]。抖音也在开通投诉电话和举报邮箱的基础上增加了用户举报网暴行为的入口,实时接收和处理针对网暴的举报,联合集体网民共同防治网络暴力信息的传播扩散。
网络舆论暴力的行为主体是网络用户,是参与到网络信息传播中的现实的人。在线上线下日益渗透、交融的背景下,他们既可能是网络暴力的施暴者,又可能是网络暴力的受害者。因此,就网民而言,应从以下方面积极应对网络舆论暴力风险:一是约束自身的网上网下行为,提高网络道德素质,学会辩证、冷静思考,理性对待网络社会的海量信息,在网上不发表过激和失实的言论,不做施暴者;二是增强网络风险防范意识,重视算法对网络生活带来的“双刃剑”作用,加强个人网络信息的保密措施,通过法律手段维护自身权益,不做受暴者;三是培养主人翁意识,做好网络信息内容的“审查员”,善于使用平台报警和举报功能,面对网络空间的虚假信息和过激言论勇于捍卫理性,不盲目跟风,不做传暴者。
【本文为国家社科基金重点项目“全球互联网治理的竞争格局与中国进路研究”(批准号:18AXW008)阶段性成果】
参考文献
▼
[1][12][19][20]姜方炳.“网络暴力”:概念、根源及其应对——基于风险社会的分析视角[J].浙江学刊,2011(6).
[2]罗昕.计算宣传:人工智能时代的公共舆论新形态[J].学术前沿,2020(15):25.
[3][21]田圣斌,刘锦.社会治理视域下网络暴力的识别与规制[J].中南民族大学学报(人文社会科学版),2020(3).
[4]周莉.学术期刊用户画像个人信息保护:风险与规制——以《个人信息保护法》为视角[J].武汉科技大学学报(社会科学版),2023(1).
[5]张爱军,李圆.人工智能时代的算法权力:逻辑、风险及规制[J].河海大学学报(哲学社会科学版),2019(6).
[6][8]张凌寒.算法权力的兴起、异化及法律规制[J].法商研究,2019(4).
[7]JohnCheney-Lippold.WeAreData:AlgorithmsandtheMakingofOurDigitalSelves[M].NewYorkUniversityPress,2017.
[9]DonovanJ.Whysocialmediacan’tkeepmoderatingcontentintheshadows[J].MITTechnologyReview,2020.
[10]SuzorNP,WestSM,QuodlingA,etal.Whatdowemeanwhenwetalkabouttransparency?Towardmeaningfultransparencyincommercialcontentmoderation[J].InternationalJournalofCommunication,2019(13).
[11]GrayKL,BuyukozturkB,HillZG.Blurringtheboundaries:UsingGamergatetoexamine“real”andsymbolicviolenceagainstwomenincontemporarygamingculture[J].SociologyCompass,2017,11(3).
[13]DeCookJR,CotterK,KanthawalaS,etal.Safefrom“harm”:Thegovernanceofviolencebyplatforms[J].Policy&Internet,2022,14(1):63-78.
[14]Facebook.‘3.YourCommitmentstoFacebookandOurCommunityand4.OtherProvisions’[EB/OL].(2022-01-04).https://www.facebook.com/terms.php.
[15]FlewT,MartinF,SuzorN.Internetregulationasmediapolicy:Rethinkingthequestionofdigitalcommunicationplatformgovernance[J].JournalofDigitalMedia&Policy,2019,10(1):33-50.
[16]CaplanR,BoydD.Isomorphismthroughalgorithms:InstitutionaldependenciesinthecaseofFacebook[J].BigData&Society,2018,5(1).
[17]VanDijckJ,NieborgD,PoellT.Reframingplatformpower[J].InternetPolicyReview,2019,8(2):1-18.
[18]Rep.Sánchez,LindaT.MeganMeierCyberbullyingPreventionAct[EB/OL].(2009-02-04).https://www.congress.gov/bill/111th-congress/house-bill/1966/text.
[19]钱彩平.国外网络舆情治理:特色模式、典型经验与现实启示[J].天津行政学院学报,2019(6).
[20]EuropeanCommission.TheEUCodeofconductoncounteringillegalhatespeechonline[EB/OL].(2022-12-01).https://commission.europa.eu/strategy-and-policy/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-xenophobia/eu-code-conduct-countering-illegal-hate-speech-online_en.
[22]LangvardtK.Regulatingonlinecontentmoderation[J].GeorgetownLawJournal,2017,106:1353.
[23]CrawfordK,GillespieT.Whatisaflagfor?Socialmediareportingtoolsandthevocabularyofcomplaint[J].NewMedia&Society,2016,18(3).
(罗昕:暨南大学新闻与传播学院教授;陈静淑:暨南大学新闻与传播学院硕士研究生)
【文章刊于《青年记者》2023年第13期】
本文引用格式参考:
罗昕,陈静淑.人工智能时代的网络舆论暴力治理[J].青年记者,2023(13):80-83.
编辑:小青
长按下方二维码,即刻订阅《青年记者》