以人民为中心:科技伦理治理的价值追求
【光明青年论坛】
编者按
随着科技进步的日新月异,世界发展的面貌和格局也发生着深刻变化。人工智能、大数据算法等新发现、新突破,在造福人类的同时,也带来了一定的伦理风险和挑战。2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,对加强科技伦理治理作出系统部署。树立正确的科技伦理意识,遵守科技伦理要求,不仅是科技工作者,更是全人类都应该具备的认识自觉和行为自觉。那么,如何增强科技伦理意识,实现科技增进人类福祉的宗旨?本刊特组织几位青年学者围绕“伦理价值”“伦理原则”“伦理责任”三个维度开展对话,并邀请专家予以点评和阐发,以期对深化相关研究和探讨有所助益。
与谈人
谭泰成 中国人民大学哲学院博士生
闫雪枫 复旦大学哲学学院博士生
周颖 上海交通大学科学史与科学文化研究院博士生
主持人
刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员
1、伦理价值:助力走出科技发展困境
主持人:针对如今的科技发展现状和发展前景,我们都面临着哪些伦理风险和挑战?
谭泰成:21世纪以来,随着运用新科技参与社会治理的不断推进,特别是智能革命兴起后,出现了“智能治理的综合”趋势,即不同技术治理手段逐渐在智能技术搭建的平台上综合起来,不再是零散的、局部的甚至相冲突的“技治拼盘”。各种智能治理措施在新冠肺炎疫情暴发以来更是迅猛发展,在大展身手的同时也暴露出一些问题,且大多与伦理风险和挑战相关。主要表现为四个方面:一是“信息孤岛”。无法接入智能平台与他者通信的人群,就会成为“信息孤岛”,在数字世界中“消失”,信息权不能得到公平保障。二是“无人困境”。智能技术如果不能与“治理中的人”很好地结合起来,人的因素容易被治理者忽视,技术问题则被过分强调,可能出现背离人本的“无人困境”。三是数据专家权力越界。要对数据专家的权力进行规范,防止技治专家权力过大,违背社会主义民主法治的基本精神。四是个人隐私滥用。尽管政府已在尽力立法对数据、个人隐私予以保护,但仍然存在不少风险。
周颖:近年来,数据被视为一种新型生产要素,与土地、劳动、资本、技术等传统生产要素一样是人类社会的重要构成。伴随数据科学与数据技术的发展,数据正在进行着对整个社会生活、生产和治理方式的重塑。在全球数字化转型的进程中,我国数字化发展备受关注且发展迅速。基于数据科学与数据技术对人类社会的深度影响,相关的伦理风险和挑战也随之而至,并成为社会各界热议的话题。比如,健康码推出不久就出现了许多没有手机或不会下载、使用该程序的群体——尤其是老年人群体,不光被技术拒绝,更被公共场所拒绝,进而加剧了社会分化、权利不平等的伦理问题,也体现出伦理在数据赋能过程中缺位带来的危害。此外,与数据相关的伦理风险还包括数据不正当获取,数据访问、使用和共享具有不透明性,数据信任危机和数据被过度商用等问题所带来的伦理风险和伦理挑战。
主持人:要走出科技发展的道德伦理困境,“伦理反思”扮演着怎么样的角色?
周颖:为了走出科技发展的伦理困境,伦理反思是必不可少的。历史地看,伦理反思贯穿技术哲学发展全过程。经典技术哲学关注的是整体而抽象的“大写的技术”,技术的伦理反思通常是悲观地批判技术的社会影响和它所造成的人类生存境况的变坏。随着德国学者胡塞尔吹响“回到事物本身”的号角,一定程度促使技术哲学更加关注经验事实,即“打开技术黑箱”,伦理反思也更加注重具体的技术经验证据。随之而来的技术的快速发展,使伦理问题愈发显现,技术伦理学逐渐从技术哲学中分离出来,进一步地,荷兰学者维贝克等主张反思进路应当“从外在主义、人本主义到内在主义、非人本主义”。从数据应用的发展来看,对隐私、安全、公平等方面进行深入的伦理反思,才能促使我国经济社会更加健康有序发展,促使大数据技术产品更新换代和数据赋能相关产业的转型升级。
闫雪枫:正如澳大利亚学者彼得·辛格所言,当面对新兴的科学技术时,许多人会产生某种直觉,但直觉未必是经得起推敲的。从生命伦理学的视角来看,伦理反思一方面能够使我们从习以为常的生活中认识到技术带来的道德困境和挑战,另一方面,借助哲学史上的经典理论框架,伦理反思能为我们在诸多彼此冲突的价值观念中提供多角度思考问题的进路,帮助我们提炼梳理对于技术的态度和观点,推理重构“不言自明”的信念背后的论证逻辑,审慎地分析其中的问题。破除科幻电影和小说的夸张情节对于技术本质的扭曲,让我们能回过头来审视一些广泛存在的规范性观念本身是否合理,进而为科学技术的研究与实践进行恰当的辩护。值得注意的是,进行伦理反思的目的不是一味地限制科技的发展。生命伦理学学者需要与科技从业者保持积极的对话,在科技发展与伦理反思中寻求动态的平衡点。
谭泰成:最近被热议的大数据治理、算法治理和区块链治理,都属于智能治理的具体形式。在各种智能治理场景中,伦理反思有助于不同主体(信息伦理学者、算法工程师、数字政府治理者和公众等)审视技术治理措施是否因超过合理限度成为技术操控手段,揭示嵌构在算法认知背后的复杂制度安排。尽管对于智能治理的伦理反思存在认知差异,但它的根本宗旨在于实现人民向往的美好生活,厘清实施智能治理应有的限度。因此,伦理反思的关键在于区别智能治理与智能操控,寻求效率工具与伦理价值之间的动态平衡。实际上,智能治理伴随着社会、政治、制度和伦理等多重风险,既有的道德批判不足以回应和化解,只有以制度化方式将德治、法治和技治手段充分融入智能治理中,才能实质性地发挥科技伦理在智能领域的治理成效。
2、伦理原则:以人民为中心推动科技向善
主持人:在《关于加强科技伦理治理的意见》的总体要求中,将“伦理先行”作为治理要求的第一条,那么,在科学技术的发展中何以“伦理先行”?
谭泰成:伦理先行需要确定相关原则及规范。目前,欧盟、美国和中国都颁布了人工智能相关的伦理指南、指导意见或规范,基本涵盖算法设计、部署和监管各个环节对于透明度和可解释性的要求。发挥伦理引导智能治理的先行作用,需要充分考虑技术专家、政府治理者、企业用户、公众等不同治理参与者的多元价值诉求,兼顾伦理的价值适配性与算法的技术可用性。需要注意的是,伦理先行并非以绝对道德主义来约束或反对技术治理活动。伦理先行的中国语境在于确保技术治理为人民服务,使之服务于中国特色社会主义民主制度的更高目标。同时,强调一般伦理原则与具体治理场景的结合,例如从道义上要求科技企业完全公布其核心基础算法并不可行。而对于公共部门而言,为了维持行政决策的执行力和公信力,有必要对算法行政决策进行充分解释,澄清背后的治理依据和价值理由。
周颖:伦理先行是技术伦理学的内在路径的必然要求。维贝克等学者提出和发展了调节的理论,将技术自身纳入解决其伦理问题的语境中。首先,在数据相关技术设计之初就需要伦理学者、技术专家、公众代表等多元主体参与并制定伦理框架、指南、原则,即在设计的目的、方法和结果预测中纳入伦理考量。例如,2020年美国联邦总务署发布的《数据伦理框架草案》中提出7条数据伦理基本原则。其次,数据相关技术设计过程作为设计者的决策过程内在地渗透着伦理价值,技术调节作用不可避免地存在着,因此,须将伦理前置,有意识有目的有方向有预见地发挥调节作用。最后,由于技术不确定性的特征,调节的各个维度不能被完全预期,许多伦理问题往往是在技术与人处于社会大背景下进行交互的过程中产生的,所以需要对技术进一步修复调节。如健康码在实施过程中显现了隐私安全等伦理隐患,在修复过程中,既制定了《新冠肺炎疫情防控健康码管理与服务暂行办法》,其中提出“为疫情防控、疾病防治收集的个人信息,不得用于其他用途”,又从技术上对健康码加以修复。经过三个维度的调节,技术自身被道德化,进而调节着人的合伦理的感知和行动。
闫雪枫:新兴技术手段往往兼具巨大的效益和风险,伦理先行也因此成了当今时代发展背景下的必然趋势。为了应对基因编辑带来的诸多挑战,科技工作者作为发展科学技术的主体,首先需要考虑的是所进行的科学研究与实践是否以人民为中心,以提升人类福祉作为最终的目标,对生命和伦理抱有敬畏之心。在开展科技工作时,要充分考虑到风险问题,提升自身的伦理道德敏感度,保证科技发展中伦理在先。新西兰生命伦理学者尼古拉斯·阿加曾强调,不要忘记历史上许多新技术都曾给人类造成预料之外的重大灾难。因此在制定伦理原则时,仍然需要考虑到一些在当下看来或许永远不会发生的情况,并给出相应的对策。科学技术不断发展,伦理原则也应当随之改进和完善,保持动态的发展,以便应对新的挑战。
主持人:《关于加强科技伦理治理的意见》中明确了科技伦理的基本原则,即“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”,其中蕴含着哪些伦理观念?
谭泰成:在技术治理活动中,服务于人民是上述原则的根本价值旨归。科技向善从根本上说就是让人民共享科技发展成果,共同引导技术治理赋能美好生活。当然,不同领域的技术治理活动对于科技伦理原则有不同侧重,例如算法治理比较强调“公开透明”。这一原则主要是针对算法运行的黑箱问题,具体化为研发者如何通过改善训练算法的数据样本质量来确保算法输出的精准度,以及企业和政府部门如何通过算法治理来提升决策效率,进而确保公共行政显得更为合理,让算法问责更具操作性。算法向善不应仅仅作为柔和的伦理观念,而是转化为敏捷的治理行动,避免因滥用算法而陷入伪技术治理。
闫雪枫:《关于加强科技伦理治理的意见》中明确的科技伦理基本原则涵盖了美国学者汤姆·比彻姆和詹姆士·邱卓思在《生命医学伦理原则》中所提出的“尊重自主性”“不伤害”“有益”“公平”四原则的内涵。与之呼应的还有2018年第二届人类基因组编辑国际峰会委员会对遗传基因编辑开展临床试验所提出的十项原则。具体来说,在进行生殖系基因编辑临床试验时,需要首先确定无其他合理替代方案,并将试验目的严格限制在严重疾病的预防上,最大限度避免试验可能造成的伤害,合理控制风险。对参与试验的患者充分告知试验潜在的风险,保持公开透明,让患者自主作出知情且自愿的决策,尊重患者的生命权利和自主性,保障患者知情权和隐私。
周颖:从数据的视角来看,相关伦理问题大致围绕隐私、安全、公平和正义四个面向展开,在个人、社会和国家的不同层面上表现不同,在不同的语境中侧重的伦理原则也有所差异,其伦理意蕴具有多元化、复杂性、交叉性和动态性等特征。不同的伦理原则在不同的技术中或具体情境中可能存在价值冲突,产生取舍的困境。对此,维贝克曾将调节理论和价值设计相结合,提出了价值发挥重要作用的方法来加以应对。简言之,将利益相关者的价值观动态地转化并内嵌到技术物中。以健康码为例,最初以保护公众健康和尊重生命权利为首要原则,在实施过程中逐步显现出隐私泄漏、不公平、不透明等伦理隐患,在修复调节中就需要加以着重考虑,将之置于价值矩阵的前端。
3、伦理责任:以正确价值导向规范科技实践
主持人:要形成多方参与、协同共治的科技伦理治理格局,需要各方主体履行怎样的伦理责任?
闫雪枫:形成多方参与、协同共治的科技伦理治理格局,首先需要科技工作者在进行研究的过程中主动加强伦理意识,自觉遵守科技伦理原则,积极与科技伦理学者进行对话和合作。对科技伦理研究者来说,需要以科学事实为依据开展对诸如知情同意、自主性等伦理问题的研究,为相关政策和原则的制定提供符合实际情况的理论支持。相关政府部门和决策者需要广泛听取来自自然科学、社会科学、人文科学的专业人员的意见建议,对特定技术的潜在风险效益以及伦理问题进行评估,建立可靠的监督机制。
周颖:就数据伦理治理而言,主体包括政府部门、数据专家、大数据技术设计者、数据伦理学者、公众、企业、高校、科研机构、社会团体等。为形成多方参与、协同共治的数据伦理治理格局,一方面,各方主体需要进行跨学科、跨范式的有效沟通,加强合作共建,凝聚力量,合力推进伦理治理实践。另一方面,各方主体应当积极履行各自的伦理责任,如政府部门,应当进一步完善相应的管理、监管制度建设;各个创新主体应当接受政府部门的管理和监督,主动学习数据伦理知识,自觉遵守数据伦理要求,依法合规地开展研究工作;伦理学者应当拓展研究的广度和深度,对比各国的研究成果,发表符合我国国情的伦理研究成果。
谭泰成:要各方履行好伦理责任并非易事。在智能治理背景下,伦理责任的首要主体是处在创新和研究一线的算法工程师和数据科学家。他们应当克服算法理性主义的狂妄,保持科技谦逊主义的态度,提升对于数据样本、算法解释的伦理敏感性。从更大的角度来看,人工智能研究的科学共同体既要勇攀科技高峰,也要敏锐地意识到创新与研究活动的潜在伦理风险和挑战。当前,技术治理的智能化趋势集中反映在公共行政领域。对于公共治理者而言,最基本的伦理责任就是要慎用手中的数据和算法治理手段,合理约束这种“技术权力”。
主持人:在人类社会深度科技化的背景下,伦理责任的难点与痛点有什么?
谭泰成:结合算法伦理的现状,与伦理责任有关的难点在于:伦理问题侧重于关切如何达成基本的共识性原则,治理问题则倾向于从公共治理角度来妥善解决技术引发的社会问题。显然,对于当下的算法治理而言,难点并不在于缺乏共识性的伦理原则,而是如何将这些原则贯彻到算法治理中。仅仅依靠顶层的适度设计是不够的,还需要配套的底层设计。在智能治理领域,与伦理责任相关的最大痛点在于:人们往往为获取服务便利,或觉得维权成本太高,不愿意与相关企业、公共部门或服务业的一些算法歧视或侵权行为进行抗争。一个重要原因是,不同年龄段、不同地区、不同学历层次的人群,对于风险感知程度不一样,这种差别反过来会影响他们采取相应行动的意愿。另一个原因是,缺乏制度化的治理参与途径,既有的维权手段也不尽如人意。
闫雪枫:新兴技术中普遍存在的伦理责任痛点与难点主要包括责任的归属、伦理审查实施的有效性,以及如何把握不同价值观之间的平衡、技术发展与伦理之间的平衡。在基因编辑的基础研究和临床试验中涉及包括科技工作者、患者、监督机构,以及政府部门等在内的多个主体。各主体的责任范围、责任权重在不同的案例中不尽相同,因此需要具体情况具体分析。此外,即便有了伦理监督审查机构,也可能存在伦理审查理解偏差、尺度不严或走过场等情况,导致审查监管方面的伦理责任不能得到切实履行。落实伦理审查,需要从多方吸纳审查人员、平衡各主体间的利益,从而保障审查是透明、客观和公正的。最后需要明确的是,伦理责任应当是科技工作者开展科研活动时的底线,不应反过来限制科技的发展。
周颖:人类深度数据化的背景下,难点与痛点之一在于仍有一部分群体游离在数据应用带来的便利之外,被数据技术拒绝,更不必说承担相应的伦理责任。以新冠应用程序中的技术拒绝现象为例,表现为一部分人游离在新冠应用程序之外,人从过去对技术的拒绝主体地位掉落下来,变成被技术拒绝的对象。表现为技术物质条件上的拒绝、技术知识和信息来源上的拒绝以及技术自身的不完善、技术漏洞或者非开放性技术权限的拒绝。该问题实质上使人与技术间的严格边界被逐步消解。技术权利提升、伦理意蕴增强的同时,人的主体性地位、权利相对就被削弱了,从而,过去人对技术“呼之则来挥之则去”的自主性不复存在,而当技术不仅成为人的生活方式,且主导了人的生活方式时,几乎无法为人所拒绝,然而却有了拒绝人类进入的能力,这是技术发展的必然结果,因此也是未来值得关注和深入思考的问题。
《光明日报》(2022年07月04日 15版)
[责编:孙宗鹤]人工智能伦理与治理研讨会成功举办
2021年8月15日,由清华大学数据治理研究中心主办的“人工智能伦理与治理”专题研讨会于云端举行,来自中央党校、中国社科院、清华大学、复旦大学、浙江大学、中国政法大学、电子科技大学、山东大学、北京化工大学、中国农业大学、对外经济贸易大学、山东师范大学等高校的多位专家学者共聚一堂,围绕人工智能伦理的核心关切和治理方式等问题展开深入研讨。会议由清华大学社会科学学院副院长、计算社会科学平台执行主任孟天广副教授主持。
会上,清华大学数据治理研究中心项目研究员汇报了《人工智能伦理与治理报告》。报告将人工智能伦理分为安全、透明、公平、个人数据保护、责任等八个维度,通过问卷调查的方式收集了公众针对这些伦理维度的关切情况及治理方式。报告特别关注了算法伦理问题,专门就算法透明、算法公开及数据保护三个方面展开讨论。最后,报告还提出了人工智能伦理治理的“中国方案”。
孟天广副教授在对报告的解读中指出,社会大众和科学家在人工智能伦理关切上存在分歧,“科学家通常看到的伦理问题过于前瞻性,而社会大众则在日常体验人工智能时形成伦理关切。”人工智能伦理治理应该平衡“自上而下”和“自下而上”两种视角,构建共建共治共享的治理机制。他建议,人工智能伦理及其治理体系需要构建包容监管机构、科技企业、科技社群、算法工程师、社会大众等利害相关者参与的共治共同体。
与会专家们从政治学、社会学、新闻传播学、公共管理学、信息管理和数据科学等不同的专业和学科视角,围绕人工智能的发展与应用带来的社会风险、人工智能伦理的理论维度细分、人工智能伦理问题的实证研究、新形势下的数据保护、如何有效消除“数字鸿沟”等关键议题,进行了热烈的交流讨论。同时,与会者还强调人工智能伦理应与具体国情相结合,就当前我国人工智能伦理与治理现状、存在的问题以及未来方案等现实问题,提出了具有前瞻性的思考与见解。
最后,清华大学数据治理研究中心主任张小劲教授对研讨会进行了总结。他指出,社会目前正面临数字时代的“启蒙运动”时期,学者负有打开“黑箱”的责任,应当更多介入到大众认知、企业认知和学界认知的推进工作中,不断推动面向大众的、有关算法正当性的理论建构。与会专家们积极回应,表示未来将进一步围绕人工智能伦理与治理问题开展广泛交流与合作。
专家合影(部分)
回顾“人工智能伦理与治理”专题研讨会:
《人工智能伦理与治理报告》内容解读
孟天广:人工智能伦理及其治理要打通科技社群与社会大众
吕鹏:人工智能伦理问题需实证证实或证伪
陈水生:人工智能伦理和治理需要“发展”和“监管”双轮驱动
李锋:人工智能伦理不能脱离社会经济状况和历史视角
孙宗锋:需研究公众对人工智能伦理关注重心的背后原因
赵娟:人工智能治理框架应处理四对关系
熊易寒:把算法还原成普通人能理解的逻辑
吴超:算法技术问题最根本的解决方法是发展技术本身
贾开:应从技术与社会互嵌角度重视人工智能治理框架
曲甜:从技术与组织关系分析人工智能的治理模式
宁晶:网络用户使用技能和心理效能影响算法接受度
张小劲:算法治理应致力于促发展、防滥用并消除污名化现象
更多与会专家发言内容,欢迎查看专题报道,或关注清华大学数据与治理研究中心官方微信公众号“数据与治理”。
(来源:中新经纬APP,未经授权禁止转载)
人工智能的伦理挑战与科学应对
编者按
2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。
与谈人
彭家锋中国人民大学哲学院博士生
虞昊华东师范大学政治与国际关系学院博士生
邓玉龙南京师范大学哲学系博士生
主持人
刘永谋中国人民大学哲学院教授、国家发展与战略研究院研究员
1.机遇与挑战并存的人工智能
主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?
彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。
虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。
邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。
主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?
虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。
邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。
彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。
2.人工智能科技竞争的“伦理赛道”
主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?
彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。
虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。
邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。
主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?
彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。
邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。
3.人工智能安全与人的全面发展
主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?
彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。
虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。
邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。
主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?
彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。
虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。
邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。
阅读原文
记者丨张颖天
来源丨光明日报
编辑丨赵一航
编审丨戴琪