中国社会科学杂志社
作为第四次科技革命和产业变革的重要推动力量,人工智能技术正以一种迅猛发展的态势,与经济社会深度融合,推动社会生产力水平的整体跃升。但是,人工智能在深刻改变现代生产生活模式的同时,也不可避免地冲击了现有的社会秩序结构,引发了一系列尖锐的伦理和法律问题,进而带来公共治理领域的系统性转变和结构性挑战。人工智能引发的伦理和法律问题可统称为伦理风险。对此种伦理风险,需要加以正确认识,并进行及时、有针对性的治理布局。
风险特点
相比于其他技术,人工智能最大的特点是“自主性”,即具有自主参与相关应用场景决策和行动的能力。从技术原理上看,此自主性依靠大量关联性数据的集成处理(如深度学习等)实现。这意味着,人工智能在根本上建基于关联性原则(AssociationRules)之上,其决策和行为并非完全遵循传统技术所依赖的因果关系,反而是新型的关联关系。但问题是,关联性原则并不具备因果律原则那样的可解释性、精确性和可预见性,而这三种特性又直接决定着技术本身的可适用性、可控性和安全性。因此,人工智能作为一种以自主性为核心的技术,先天具有更高的风险指数。同时,人工智能本质上是一个综合性、交叉性的技术合成平台,具有技术孕育的多学科参与和产业应用的多样化等特征。其复杂性表现在从研发到应用的各个环节之中,从而导致其风险出现的可能性较传统技术大为凸显。人工智能技术自诞生之日起,就存在着较高出现多重风险的可能性。
近年来,由人工智能技术带来的大数据精准营销、隐私泄露、数字鸿沟、金融欺诈、裁员失业等问题,暴露出人工智能在社会上的诸多负面影响。以大数据在商业上的应用为例,一些技术公司大量抓取消费者的诸如网络浏览、购物和出行等数据,并通过关联性分析,预测其个人偏好、消费规律和购物频率等内容,进而进行精准的产品推送。大数据精准营销成为中国商业发展的强劲动力,在经济领域备受追捧。但其负面问题也有很多,且较为棘手。比如,这种某些特定技术公司所操控的营销行为,是否侵犯了消费者的知情权和隐私权?是否符合行业公平竞争原则和理念?如何避免虚假信息借此泛滥、个人隐私泄露等问题?有关部门如何对相关企业或平台进行安全监管,乃至必要时给出适合的责任认定与司法裁断?等等。概言之,大数据营销在其应用中具有评估指标多元、行政和法律监管困难、权责认定复杂等问题,正在或将会引发诸多伦理风险。当然,这些问题也是当前人工智能应用场景中共性的风险表现,其未知性、紧迫性、全局性、复杂性和长期性等特征显著,以常规治理模式很难消化解决。这要求我们必须明确回答:如何通过风险治理消解人工智能的负面影响?笔者认为,需要从各个层面构建中国特色的伦理风险治理新格局。
治理路径
社会学家贝克(UlrichBeck)在其风险社会理论中,提出了一个影响巨大的概念——“自反性”(reflexivity),即认为技术社会的最终发展形态并不单纯由技术本身的力量决定,也将由在对技术进行反思的过程中所形成的反作用力塑造。基于“自反性”,我们对技术的反思和对相关风险的治理,不应仅停留于对抗技术“副作用”的层面,而更应具有前瞻性和构建性,以期形成合理的“自反性”力量,反过来引领技术发展和社会进步。在人工智能风险治理中,需要由基础的认知反省到具体的应用调节,最终走向社会制度的整体改进。这是一个有机的风险治理过程,是技术社会走向良性发展的重要路径。根据这一路径,可以进行三个层次的伦理风险治理布局。
一是更新认知,凝聚人工智能时代社会共识和集体信念。健康积极的社会观念会直接影响人工智能技术的研发与应用进程。当前,人工智能技术引发的各类伦理风险,往往在短期内难以被充分解读并有效引领。并且,一些关于人工智能以及利用人工智能传播或放大的不良社会观念,也可能存在滋生的土壤。这时,需要通过一些公共管理手段,对社会思想观念进行集中有效的调控引导。一方面,要开展面向社会大众的针对性思想宣传工作。我们可以面向社会各类人群主动设置议题,围绕人工智能应用的热点领域(如媒体、电商、自动驾驶、医疗、金融等),结合社会关注的热点话题(如安全、隐私、效率、教育、就业、家庭关系等),有针对性地加以正面宣传教育和引导,积极解疑释惑,努力形成良好的社会心理预期,疏导社会不良情绪,建立关于人工智能的积极集体信念。另一方面,要进行人工智能伦理思想的专业性、学术性研究创新。我们应鼓励相关学术研究群体在充分理解现实问题、预判未来趋势的基础上,遵循科技发展规律,重新阐释人机主体性、公平正义、权利尊严、美好生活等重大理论问题,为整个社会建构、更新和丰富人工智能时代伦理体系和司法体系的基础理论和价值目标,设计适用于不同群体和应用场景的伦理规范和评判指标,提供人工智能风险治理的深层理论资源。
二是应用调节,建立人工智能政策调节和缓冲机制。人工智能技术的发展日新月异,其风险产生也常常不可预计。为做好充分的风险管控,首先要保证公共治理层面的有效干预。合理有效的干预并非在人工智能的研发和应用上进行简单统管统筹,而是要针对其未知性和复杂性等特点,拓展出开放灵活的政策空间,即通过建立有效约束和容错纠错的管理机制,打造人工智能应用的缓冲区。对人工智能新技术、新应用的容错不是盲目的,而是基于容错甚至纠错的组织管理能力。为实现这一目标,应建立政府、公众、媒体、企业、第三方评估机构等多元互动的生态行政管理系统。比如,政府可以主导建立面向科研共同体和公众、媒体的人工智能伦理问题听证、征询和协商机制,提高科研共同体和公众在人工智能研发和应用领域的监督能力和参与程度,发掘科研共同体、公众和媒体在推动企业和政府的治理理念转变上的重要作用。在建立动态组织管理机制的基础上,有关管理机构需把握好人工智能发展的节奏和方向,有选择有计划地调研调控,避免公共决策中的短视和失误;以可持续发展的视角,整体及时地推进经济结构、社会管理结构的平稳转型,预防人工智能对市场、就业和产业结构等领域的过度冲击;削弱人工智能对居民生活的负面影响和可能隐患,保护弱势群体;以公共管理政策的灵活性开放性,形成科技、市场和管理的三角联动,保障人工智能的健康发展。
三是制度改进,明确权责构建多级制度保障。在社会层面,应建立健全统一有力的专门性机构,对人工智能发展进行总体规划和全局统筹。可以由人工智能伦理委员会进行全局性统筹,逐级建立委员会体系,保证对政府部门、企事业单位、科研机构和公众舆论的综合全面监管。在企业层面,应充分发挥企业在人工智能伦理风险管理上的基点作用。企业领导层应树立风险意识,提高责任意识,在企业结构上设立专门性的伦理风险应对和监督部门,完善企业在有关伦理问题上的决策、沟通、咨询和调控的制度框架,提高企业在人工智能伦理风险的识别、评估、处理、监控及汇报能力。此外,在行业内部,应建立统一的伦理风险咨询和监管委员会,制定行业发展伦理规范,推动相关企业落实主体责任,保证企业良性发展。在法律层面,应重视人工智能相关立法司法工作创新,以人民利益为中心,以公平正义为基石,以现实问题为导向,积极反思人工智能时代法律制度和理论体系的思想基础和价值目标。促进能够自我调整革新的人工智能新型法律规则体系建设,切实维护人民安全、隐私等基本权利,保障法律在人工智能应用中发挥应有的警示、裁断和保护功能。
(本文系中国人民大学2021年度中央高校建设世界一流大学(学科)和特色发展引导专项资金支持项目阶段性成果)
(作者单位:中国人民大学哲学院)
孟天广:人工智能伦理及其治理要打通科技社群与社会大众
清华大学社科学院副院长、长聘副教授孟天广在研讨会上表示,社会大众和科学家在人工智能伦理方面的理解存在分歧,人工智能伦理及其治理体系需要构建包括监管机构、科技企业、科技社群、算法工程师、社会大众等利害相关者参与的共治共同体。
孟天广表示,人工智能时代的来临给全社会带来巨大机遇,同时也蕴含新的挑战。近年来人工智能伦理成为社会各界热议的话题,尤其是新冠疫情以来,智能产品快速进入生活工作场景,人们围绕人工智能理论的争议愈加明显。对此,清华大学数据治理研究中心围绕人工智能伦理及其治理体系展开研究,通过理论分析、国际比较、实证研究形成了《人工智能伦理与治理》研究报告。
关于对人工智能伦理的内涵理解,孟天广称,“似乎我们有两个世界”。从科学家(譬如科技哲学)的视角去看待人工智能技术及其应用的社会后果、社会风险和伦理问题,他们更关心的是人类尊严、人类自主性、算法透明等角度。
“但是从社交媒体和问卷调查的实证研究却表明,第二个人群,即社会大众,其实更关心人工智能在安全(可靠)、隐私、公平等维度带来的挑战。”孟天广表示,这就需要让科技企业提供更可靠、公平的人工智能应用,同时坚守隐私保护和社会责任等底线原则。
孟天广指出,社会大众和科学家在人工智能伦理治理的分歧在于:科学家通常看到的伦理问题过于前瞻性,而社会大众则在日常体验人工智能时形成伦理关切。他认为,人工智能伦理治理应该平衡“自上而下”和“自下而上”两种视角,构建共建共治共享的治理机制。
对于具体如何构建人工智能伦理的治理机制,孟天广建议可以从三方面着手:一是监管者层面,建立、健全人工智能治理法律法规,规范人工智能应用场景,明确人工智能伦理问题权责归属和防范人工智能风险。
二是AI行业层面,制定人工智能伦理行业标准,形成人工智能技术及其应用的共识性通则,培育科技企业的人工智能伦理意识、为人工智能开发和使用提供价值标准。
三是AI用户(消费者)层面,开展人工智能普及工作及伦理培训,通过公益广告、科普作品、科技体验增进消费者对人工智能产品的体验和了解,逐步破除算法鸿沟,提高公众智能素养。
回顾“人工智能伦理与治理”专题研讨会:
人工智能伦理与治理研讨会成功举办
《人工智能伦理与治理报告》内容解读
吕鹏:人工智能伦理问题需实证证实或证伪
陈水生:人工智能伦理和治理需要“发展”和“监管”双轮驱动
李锋:人工智能伦理不能脱离社会经济状况和历史视角
孙宗锋:需研究公众对人工智能伦理关注重心的背后原因
赵娟:人工智能治理框架应处理四对关系
熊易寒:把算法还原成普通人能理解的逻辑
吴超:算法技术问题最根本的解决方法是发展技术本身
贾开:应从技术与社会互嵌角度重视人工智能治理框架
曲甜:从技术与组织关系分析人工智能的治理模式
宁晶:网络用户使用技能和心理效能影响算法接受度
张小劲:算法治理应致力于促发展、防滥用并消除污名化现象
更多与会专家发言内容,欢迎查看专题报道,或关注清华大学数据与治理研究中心官方微信公众号“数据与治理”。
(来源:中新经纬APP,未经授权禁止转载)
世界卫生组织发布卫生健康领域人工智能伦理与治理指南—新闻—科学网
世界卫生组织发布卫生健康领域人工智能伦理与治理指南
科技日报记者张盖伦
世界卫生组织(WHO)于6月28日正式发布了“世界卫生组织卫生健康领域人工智能伦理与治理指南(EthicsandGovernanceofArtificialIntelligenceforHealth:WHOGuidance)”。这项指南依托世界卫生组织任命的卫生健康领域人工智能伦理与治理专家组编写,历时18个月。受国家卫健委和科技部推荐,中国科学院自动化研究所曾毅研究员作为世界卫生组织卫生健康领域人工智能伦理与治理专家组成员参与了报告编写发布的全过程。
世界卫生组织总干事谭德塞(TedrosAdhanomGhebreyesus)在指南发布声明中指出:“就像所有其他的新技术一样,人工智能对于提升世界上数以亿计民众的健康潜力巨大。但也正如其他技术一样,也能够被误用和带来危害。这份重要的新报告为不同的国家最大化人工智能的益处和最小化其风险并避免危害提供了一份有价值的指南。”
报告概述了人工智能在医疗与卫生中的各种应用,指出人工智能在相对富裕的国家已经被用于提升治疗的速度和精准度以及疾病的筛查,协助临床护理,加强卫生研究与药物研发,支持疾病监测,疫情应对和卫生系统管理等多种公共卫生干预措施。
报告还指出人工智能可以使患者能够更好地掌控自身的健康情况,并更好地了解自身不断变化的需求。它还可以使资源贫乏的国家和农村社区能够弥合获得保健服务方面的差距,因为那里的病人接触到保健工作者或医疗专业人员的机会都是非常有限的。
世卫组织的新报告告诫,不能高估人工智能对健康的益处。机会与挑战和风险高度相关,包括不符合伦理地收集和使用健康数据、算法中的偏见,人工智能对患者安全的风险、网络安全和对环境产生的负面影响。
报告提出了确保人工智能符合所有国家公共利益的六项原则:
·保护人类自主性:在卫生健康方面,这意味着人类自身应确保继续掌控医疗决策过程和对医疗系统的控制;隐私和保密应受到保护,患者必须通过适当的数据保护法律框架给予有效的知情同意。
·促进人类福祉、安全以及公共利益:人工智能技术的设计者应确保满足对明确定义的使用案例或指示的安全性、准确性和有效性的监管要求。必须提供实践中的质量控制措施并对使用人工智能改进质量提供有效测度。
·确保透明度、可解释性和可理解性。透明度要求在设计或部署人工智能技术之前发布或记录足够的信息。这些信息必须很容易获得,并对就技术的设计方式以及应如何使用或不应使用技术进行有意义的公众咨询和辩论提供便利。
·促进责任和问责。虽然现有人工智能技术仍是执行特定的任务,但利益相关者有责任确保在恰当的条件下使用,并由受过恰当培训的人员使用。应提供有效的机制支持问询,并为受到基于算法决策不利影响的个人和团体提供补救措施。
·确保包容性和公平性。包容性要求人工智能在健康领域的应用应鼓励尽可能广泛的公平使用和获取,而不论年龄、性别、收入、种族、性取向、能力或受人权法保护的其他特征如何。
·促进负责任和可持续的人工智能。设计人员、研发人员和用户应在实际使用期间持续、透明地评估人工智能应用,以确定人工智能是否对应用期望和需求做出充分和适当的响应。还应设计人工智能系统,以尽量减少其环境负面影响并提高能源效率。政府和公司应积极应对工作场所中可预期的问题,包括培训卫生与健康领域工作者以适应人工智能系统的使用,以及由于使用自动化系统而可能产生的失业问题。
曾毅还记得,2019年10月在日内瓦召开的第一次会议期间,专家们就讨论到紧急公共卫生危机期间AI应用涉及到的相关方和可能带来的风险和伦理挑战。新冠对公共卫生的挑战是全球性的,也更凸显了世界卫生组织发布健康领域人工智能伦理与治理指南的意义。“下一步这些指南和原则在不同国家如何进行技术和社会落地,促进人类卫生健康共同体的形成,是与提出原则本身至少同样重要的问题。”曾毅强调。
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。以人民为中心:科技伦理治理的价值追求
【光明青年论坛】
编者按
随着科技进步的日新月异,世界发展的面貌和格局也发生着深刻变化。人工智能、大数据算法等新发现、新突破,在造福人类的同时,也带来了一定的伦理风险和挑战。2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,对加强科技伦理治理作出系统部署。树立正确的科技伦理意识,遵守科技伦理要求,不仅是科技工作者,更是全人类都应该具备的认识自觉和行为自觉。那么,如何增强科技伦理意识,实现科技增进人类福祉的宗旨?本刊特组织几位青年学者围绕“伦理价值”“伦理原则”“伦理责任”三个维度开展对话,并邀请专家予以点评和阐发,以期对深化相关研究和探讨有所助益。
与谈人
谭泰成 中国人民大学哲学院博士生
闫雪枫 复旦大学哲学学院博士生
周颖 上海交通大学科学史与科学文化研究院博士生
主持人
刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员
1、伦理价值:助力走出科技发展困境
主持人:针对如今的科技发展现状和发展前景,我们都面临着哪些伦理风险和挑战?
谭泰成:21世纪以来,随着运用新科技参与社会治理的不断推进,特别是智能革命兴起后,出现了“智能治理的综合”趋势,即不同技术治理手段逐渐在智能技术搭建的平台上综合起来,不再是零散的、局部的甚至相冲突的“技治拼盘”。各种智能治理措施在新冠肺炎疫情暴发以来更是迅猛发展,在大展身手的同时也暴露出一些问题,且大多与伦理风险和挑战相关。主要表现为四个方面:一是“信息孤岛”。无法接入智能平台与他者通信的人群,就会成为“信息孤岛”,在数字世界中“消失”,信息权不能得到公平保障。二是“无人困境”。智能技术如果不能与“治理中的人”很好地结合起来,人的因素容易被治理者忽视,技术问题则被过分强调,可能出现背离人本的“无人困境”。三是数据专家权力越界。要对数据专家的权力进行规范,防止技治专家权力过大,违背社会主义民主法治的基本精神。四是个人隐私滥用。尽管政府已在尽力立法对数据、个人隐私予以保护,但仍然存在不少风险。
周颖:近年来,数据被视为一种新型生产要素,与土地、劳动、资本、技术等传统生产要素一样是人类社会的重要构成。伴随数据科学与数据技术的发展,数据正在进行着对整个社会生活、生产和治理方式的重塑。在全球数字化转型的进程中,我国数字化发展备受关注且发展迅速。基于数据科学与数据技术对人类社会的深度影响,相关的伦理风险和挑战也随之而至,并成为社会各界热议的话题。比如,健康码推出不久就出现了许多没有手机或不会下载、使用该程序的群体——尤其是老年人群体,不光被技术拒绝,更被公共场所拒绝,进而加剧了社会分化、权利不平等的伦理问题,也体现出伦理在数据赋能过程中缺位带来的危害。此外,与数据相关的伦理风险还包括数据不正当获取,数据访问、使用和共享具有不透明性,数据信任危机和数据被过度商用等问题所带来的伦理风险和伦理挑战。
主持人:要走出科技发展的道德伦理困境,“伦理反思”扮演着怎么样的角色?
周颖:为了走出科技发展的伦理困境,伦理反思是必不可少的。历史地看,伦理反思贯穿技术哲学发展全过程。经典技术哲学关注的是整体而抽象的“大写的技术”,技术的伦理反思通常是悲观地批判技术的社会影响和它所造成的人类生存境况的变坏。随着德国学者胡塞尔吹响“回到事物本身”的号角,一定程度促使技术哲学更加关注经验事实,即“打开技术黑箱”,伦理反思也更加注重具体的技术经验证据。随之而来的技术的快速发展,使伦理问题愈发显现,技术伦理学逐渐从技术哲学中分离出来,进一步地,荷兰学者维贝克等主张反思进路应当“从外在主义、人本主义到内在主义、非人本主义”。从数据应用的发展来看,对隐私、安全、公平等方面进行深入的伦理反思,才能促使我国经济社会更加健康有序发展,促使大数据技术产品更新换代和数据赋能相关产业的转型升级。
闫雪枫:正如澳大利亚学者彼得·辛格所言,当面对新兴的科学技术时,许多人会产生某种直觉,但直觉未必是经得起推敲的。从生命伦理学的视角来看,伦理反思一方面能够使我们从习以为常的生活中认识到技术带来的道德困境和挑战,另一方面,借助哲学史上的经典理论框架,伦理反思能为我们在诸多彼此冲突的价值观念中提供多角度思考问题的进路,帮助我们提炼梳理对于技术的态度和观点,推理重构“不言自明”的信念背后的论证逻辑,审慎地分析其中的问题。破除科幻电影和小说的夸张情节对于技术本质的扭曲,让我们能回过头来审视一些广泛存在的规范性观念本身是否合理,进而为科学技术的研究与实践进行恰当的辩护。值得注意的是,进行伦理反思的目的不是一味地限制科技的发展。生命伦理学学者需要与科技从业者保持积极的对话,在科技发展与伦理反思中寻求动态的平衡点。
谭泰成:最近被热议的大数据治理、算法治理和区块链治理,都属于智能治理的具体形式。在各种智能治理场景中,伦理反思有助于不同主体(信息伦理学者、算法工程师、数字政府治理者和公众等)审视技术治理措施是否因超过合理限度成为技术操控手段,揭示嵌构在算法认知背后的复杂制度安排。尽管对于智能治理的伦理反思存在认知差异,但它的根本宗旨在于实现人民向往的美好生活,厘清实施智能治理应有的限度。因此,伦理反思的关键在于区别智能治理与智能操控,寻求效率工具与伦理价值之间的动态平衡。实际上,智能治理伴随着社会、政治、制度和伦理等多重风险,既有的道德批判不足以回应和化解,只有以制度化方式将德治、法治和技治手段充分融入智能治理中,才能实质性地发挥科技伦理在智能领域的治理成效。
2、伦理原则:以人民为中心推动科技向善
主持人:在《关于加强科技伦理治理的意见》的总体要求中,将“伦理先行”作为治理要求的第一条,那么,在科学技术的发展中何以“伦理先行”?
谭泰成:伦理先行需要确定相关原则及规范。目前,欧盟、美国和中国都颁布了人工智能相关的伦理指南、指导意见或规范,基本涵盖算法设计、部署和监管各个环节对于透明度和可解释性的要求。发挥伦理引导智能治理的先行作用,需要充分考虑技术专家、政府治理者、企业用户、公众等不同治理参与者的多元价值诉求,兼顾伦理的价值适配性与算法的技术可用性。需要注意的是,伦理先行并非以绝对道德主义来约束或反对技术治理活动。伦理先行的中国语境在于确保技术治理为人民服务,使之服务于中国特色社会主义民主制度的更高目标。同时,强调一般伦理原则与具体治理场景的结合,例如从道义上要求科技企业完全公布其核心基础算法并不可行。而对于公共部门而言,为了维持行政决策的执行力和公信力,有必要对算法行政决策进行充分解释,澄清背后的治理依据和价值理由。
周颖:伦理先行是技术伦理学的内在路径的必然要求。维贝克等学者提出和发展了调节的理论,将技术自身纳入解决其伦理问题的语境中。首先,在数据相关技术设计之初就需要伦理学者、技术专家、公众代表等多元主体参与并制定伦理框架、指南、原则,即在设计的目的、方法和结果预测中纳入伦理考量。例如,2020年美国联邦总务署发布的《数据伦理框架草案》中提出7条数据伦理基本原则。其次,数据相关技术设计过程作为设计者的决策过程内在地渗透着伦理价值,技术调节作用不可避免地存在着,因此,须将伦理前置,有意识有目的有方向有预见地发挥调节作用。最后,由于技术不确定性的特征,调节的各个维度不能被完全预期,许多伦理问题往往是在技术与人处于社会大背景下进行交互的过程中产生的,所以需要对技术进一步修复调节。如健康码在实施过程中显现了隐私安全等伦理隐患,在修复过程中,既制定了《新冠肺炎疫情防控健康码管理与服务暂行办法》,其中提出“为疫情防控、疾病防治收集的个人信息,不得用于其他用途”,又从技术上对健康码加以修复。经过三个维度的调节,技术自身被道德化,进而调节着人的合伦理的感知和行动。
闫雪枫:新兴技术手段往往兼具巨大的效益和风险,伦理先行也因此成了当今时代发展背景下的必然趋势。为了应对基因编辑带来的诸多挑战,科技工作者作为发展科学技术的主体,首先需要考虑的是所进行的科学研究与实践是否以人民为中心,以提升人类福祉作为最终的目标,对生命和伦理抱有敬畏之心。在开展科技工作时,要充分考虑到风险问题,提升自身的伦理道德敏感度,保证科技发展中伦理在先。新西兰生命伦理学者尼古拉斯·阿加曾强调,不要忘记历史上许多新技术都曾给人类造成预料之外的重大灾难。因此在制定伦理原则时,仍然需要考虑到一些在当下看来或许永远不会发生的情况,并给出相应的对策。科学技术不断发展,伦理原则也应当随之改进和完善,保持动态的发展,以便应对新的挑战。
主持人:《关于加强科技伦理治理的意见》中明确了科技伦理的基本原则,即“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”,其中蕴含着哪些伦理观念?
谭泰成:在技术治理活动中,服务于人民是上述原则的根本价值旨归。科技向善从根本上说就是让人民共享科技发展成果,共同引导技术治理赋能美好生活。当然,不同领域的技术治理活动对于科技伦理原则有不同侧重,例如算法治理比较强调“公开透明”。这一原则主要是针对算法运行的黑箱问题,具体化为研发者如何通过改善训练算法的数据样本质量来确保算法输出的精准度,以及企业和政府部门如何通过算法治理来提升决策效率,进而确保公共行政显得更为合理,让算法问责更具操作性。算法向善不应仅仅作为柔和的伦理观念,而是转化为敏捷的治理行动,避免因滥用算法而陷入伪技术治理。
闫雪枫:《关于加强科技伦理治理的意见》中明确的科技伦理基本原则涵盖了美国学者汤姆·比彻姆和詹姆士·邱卓思在《生命医学伦理原则》中所提出的“尊重自主性”“不伤害”“有益”“公平”四原则的内涵。与之呼应的还有2018年第二届人类基因组编辑国际峰会委员会对遗传基因编辑开展临床试验所提出的十项原则。具体来说,在进行生殖系基因编辑临床试验时,需要首先确定无其他合理替代方案,并将试验目的严格限制在严重疾病的预防上,最大限度避免试验可能造成的伤害,合理控制风险。对参与试验的患者充分告知试验潜在的风险,保持公开透明,让患者自主作出知情且自愿的决策,尊重患者的生命权利和自主性,保障患者知情权和隐私。
周颖:从数据的视角来看,相关伦理问题大致围绕隐私、安全、公平和正义四个面向展开,在个人、社会和国家的不同层面上表现不同,在不同的语境中侧重的伦理原则也有所差异,其伦理意蕴具有多元化、复杂性、交叉性和动态性等特征。不同的伦理原则在不同的技术中或具体情境中可能存在价值冲突,产生取舍的困境。对此,维贝克曾将调节理论和价值设计相结合,提出了价值发挥重要作用的方法来加以应对。简言之,将利益相关者的价值观动态地转化并内嵌到技术物中。以健康码为例,最初以保护公众健康和尊重生命权利为首要原则,在实施过程中逐步显现出隐私泄漏、不公平、不透明等伦理隐患,在修复调节中就需要加以着重考虑,将之置于价值矩阵的前端。
3、伦理责任:以正确价值导向规范科技实践
主持人:要形成多方参与、协同共治的科技伦理治理格局,需要各方主体履行怎样的伦理责任?
闫雪枫:形成多方参与、协同共治的科技伦理治理格局,首先需要科技工作者在进行研究的过程中主动加强伦理意识,自觉遵守科技伦理原则,积极与科技伦理学者进行对话和合作。对科技伦理研究者来说,需要以科学事实为依据开展对诸如知情同意、自主性等伦理问题的研究,为相关政策和原则的制定提供符合实际情况的理论支持。相关政府部门和决策者需要广泛听取来自自然科学、社会科学、人文科学的专业人员的意见建议,对特定技术的潜在风险效益以及伦理问题进行评估,建立可靠的监督机制。
周颖:就数据伦理治理而言,主体包括政府部门、数据专家、大数据技术设计者、数据伦理学者、公众、企业、高校、科研机构、社会团体等。为形成多方参与、协同共治的数据伦理治理格局,一方面,各方主体需要进行跨学科、跨范式的有效沟通,加强合作共建,凝聚力量,合力推进伦理治理实践。另一方面,各方主体应当积极履行各自的伦理责任,如政府部门,应当进一步完善相应的管理、监管制度建设;各个创新主体应当接受政府部门的管理和监督,主动学习数据伦理知识,自觉遵守数据伦理要求,依法合规地开展研究工作;伦理学者应当拓展研究的广度和深度,对比各国的研究成果,发表符合我国国情的伦理研究成果。
谭泰成:要各方履行好伦理责任并非易事。在智能治理背景下,伦理责任的首要主体是处在创新和研究一线的算法工程师和数据科学家。他们应当克服算法理性主义的狂妄,保持科技谦逊主义的态度,提升对于数据样本、算法解释的伦理敏感性。从更大的角度来看,人工智能研究的科学共同体既要勇攀科技高峰,也要敏锐地意识到创新与研究活动的潜在伦理风险和挑战。当前,技术治理的智能化趋势集中反映在公共行政领域。对于公共治理者而言,最基本的伦理责任就是要慎用手中的数据和算法治理手段,合理约束这种“技术权力”。
主持人:在人类社会深度科技化的背景下,伦理责任的难点与痛点有什么?
谭泰成:结合算法伦理的现状,与伦理责任有关的难点在于:伦理问题侧重于关切如何达成基本的共识性原则,治理问题则倾向于从公共治理角度来妥善解决技术引发的社会问题。显然,对于当下的算法治理而言,难点并不在于缺乏共识性的伦理原则,而是如何将这些原则贯彻到算法治理中。仅仅依靠顶层的适度设计是不够的,还需要配套的底层设计。在智能治理领域,与伦理责任相关的最大痛点在于:人们往往为获取服务便利,或觉得维权成本太高,不愿意与相关企业、公共部门或服务业的一些算法歧视或侵权行为进行抗争。一个重要原因是,不同年龄段、不同地区、不同学历层次的人群,对于风险感知程度不一样,这种差别反过来会影响他们采取相应行动的意愿。另一个原因是,缺乏制度化的治理参与途径,既有的维权手段也不尽如人意。
闫雪枫:新兴技术中普遍存在的伦理责任痛点与难点主要包括责任的归属、伦理审查实施的有效性,以及如何把握不同价值观之间的平衡、技术发展与伦理之间的平衡。在基因编辑的基础研究和临床试验中涉及包括科技工作者、患者、监督机构,以及政府部门等在内的多个主体。各主体的责任范围、责任权重在不同的案例中不尽相同,因此需要具体情况具体分析。此外,即便有了伦理监督审查机构,也可能存在伦理审查理解偏差、尺度不严或走过场等情况,导致审查监管方面的伦理责任不能得到切实履行。落实伦理审查,需要从多方吸纳审查人员、平衡各主体间的利益,从而保障审查是透明、客观和公正的。最后需要明确的是,伦理责任应当是科技工作者开展科研活动时的底线,不应反过来限制科技的发展。
周颖:人类深度数据化的背景下,难点与痛点之一在于仍有一部分群体游离在数据应用带来的便利之外,被数据技术拒绝,更不必说承担相应的伦理责任。以新冠应用程序中的技术拒绝现象为例,表现为一部分人游离在新冠应用程序之外,人从过去对技术的拒绝主体地位掉落下来,变成被技术拒绝的对象。表现为技术物质条件上的拒绝、技术知识和信息来源上的拒绝以及技术自身的不完善、技术漏洞或者非开放性技术权限的拒绝。该问题实质上使人与技术间的严格边界被逐步消解。技术权利提升、伦理意蕴增强的同时,人的主体性地位、权利相对就被削弱了,从而,过去人对技术“呼之则来挥之则去”的自主性不复存在,而当技术不仅成为人的生活方式,且主导了人的生活方式时,几乎无法为人所拒绝,然而却有了拒绝人类进入的能力,这是技术发展的必然结果,因此也是未来值得关注和深入思考的问题。
通用模型的伦理与治理:挑战及对策
人工智能步入“通用模型时代”
模型,是现实世界中事件、系统、行为或者自然现象的抽象数学表征。在人工智能领域,通用模型,又称为预训练模型、基础模型或大模型,是指经过大规模数据训练,包含海量模型参数,并可适用于广泛下游任务的模型。自 21 世纪早期深度学习技术兴起,人工智能的研发模式主要是开发专用模型,即针对特定任务、场景,依赖大量人力的“作坊式”。然而,由于专用模型泛化能力差且严重依赖专用数据集,导致开发成本高。近几年,人们开始聚焦通用模型,即通过预先训练一个超大规模的模型,再用少量微调数据将模型迁移到具体场景中,一次性解决下游碎片化任务。
在目前的通用模型中,自然语言处理(NLP)和计算机视觉(CV)是发展最快的两个领域。NLP指的是建立在计算机编程基础上的人与计算机之间的自然语言通讯,即让人工智能“说人话”,代表模型包括 Bert(Google)、GPT-2/3(OpenAI)、GLaM(Google)、“盘古”(华为)、“悟道”(智源、清华)等。CV 指的是利用传感器、摄像头、计算机等设备模仿生物视觉能力,即让人工智能“看世界”,代表包括 SwinTransformer(Microsoft)、CLIP(OpenAI)、“书生”(上海人工智能实验室)等。
从技术的角度来看,通用模型所基于的深度神经网络和自监督学习并不新颖,其近年来的迅速发展主要归功于不断扩大的模型参数量、训练数据及算力的发展。比如,OpenAI 在 2018 年发布的语言模型 GPT-1 的参数量为 1.1 亿,而其在 2020 年发布的 GPT-3 模型的参数量已高达 1750 亿,而 Google 的 SwitchTransformer 和北京智源研究院的“悟道”2.0 的参数已经达到万亿级别。模型参数、训练数据和算力的扩增激发了模型的潜能,提高了模型的泛化性和适用性,提升了开发效率。在通用性方面,据华为数据显示,其“盘古”通用模型可以适配电力行业的 100 多种问题,迭代效率提升了 10 倍左右。在精度方面,Clark 等的实验显示,在没有训练的情况下,人类评价者已经很难区分测试文本是 GPT-3 生成的还是人类创作的。在数据效率方面,上海人工智能实验室的“书生”模型仅需 2 个训练样本,就能在花卉种类识别的任务上达到 99.7% 的精确度。
通用性能和模型质量的提升降低了人工智能的研发和使用门槛,促进了人工智能的规模化落地,未来可能带来从技术、规则、制度到产业的整个人工智能领域的范式转变。据 GPT-3 官网显示,截至 2022 年 2 月,已经有超过 320 个 APP 采用了 GPT-3模型,其中包括人们熟知的 WhatsApp、Duolingo、Excel 等产品。人工智能已然步入“通用模型”时代。
2
通用模型的特性及伦理挑战
通用模型的特性
_
核心特性
通用模型的核心特性可以归纳为涌现性(emergence)和同质性(homogenization)。
1
涌现性
涌现是复杂系统的特征,通常指的是“在复杂系统的自组织过程中,出现新颖而连贯的结构、模式和属性”。涌现具有 2 个明显特性:
1.单体之间相互作用产生的协同效应,这使群体作为一个整体可以产生个体简单相加无法达到的效果。
2.在临界状态下质的改变,这种质变的例子包括自然界中的雪崩、冰化成水,又或者经济领域的股市价格波动等。
在通用模型的语境下,涌现性指的是模型的功能不是具体建构的,而是在模型的大规模训练过程中自主涌现出来的。通用模型的功能涌现性根植于机器学习的特性。机器学习领域的先锋——Samuel指出,机器学习算法的本质是让计算机自动学习训练数据的内在规律,并用这些规律对未知数据进行预测,这种基于训练数据产生模型的算法具有涌现性的特征。通用模型在大规模算力和数据的加持下,不仅可以自动指定任务的执行方式、提取数据的内在特征,还可以涌现出一些预料之外的功能 。Steinhardt将通用模型的涌现性进一步解释为由于参数数量增加而引起的行为上的质变,这种质变可以引起系统的快速改变,在产生新功能的同时也可能产生新的风险。
2
同质性
同质性,与异质性(heterogenization)相反,指的是构成物体或人的单元在质量、结构、状态等特征上的单一或相似性。在通用模型语境下,同质性指的是模型构建方法的相似性。主要表现在 2 个方面:
1.横向的同质化,指的是类似的网络架构(如Transformer)已经被广泛用于诸多领域的模型开发中。如文本、图片、视频、蛋白质结构预测等,使得模型的能力可以惠及诸多领域。
2.纵向的同质化,指的是类似或同一模型被广泛用于解决下游任务。通用模型领域模型建构的同质化主要源于模型强泛化性所带来的开发、优化、应用等方面效率的提升。此外,通用模型作为一种中间模型,其问题也会被下游模型所继承,带来“一荣俱荣,一损俱损”的效果。
_
衍生特性
通用模型还有两个衍生特性:大规模数据训练和任务泛化。
1.大规模数据训练不仅是模型功能涌现性的重要前提,也对提高模型整体适用性、准确度和效率发挥了积极作用。
2.通用模型任务泛化的特性,指的是模型可以作为具有“通才”能力的中间模型,被使用者迁移处理各种不同的、甚至未知的任务,而类似网络架构在多种模态模型(文字、图片、视频等)中的运用更是拓宽了模型的下游应用领域。在这个意义上,通用模型可以被看作是一种促能技术(enablingtechnology)。
通用模型的伦理挑战
通用模型的上述特性推进了人工智能技术的发展和规模化落地,但也带来一系列伦理挑战,包括涌现性伴随的功能不确定、鲁棒性欠缺所导致的可靠性问题与认知风险;大规模数据训练面临的隐私安全、偏见、毒性、公平性问题;同质性和任务泛化对上述问题在横向和纵向上的放大和加深;使用海量算力对能源的消耗和环境的影响。总的来说,通用模型面临的伦理挑战主要表现在 3 个层面。
_
算法层面:不确定性与真实性、可靠性问题
从认识论角度看,通用模型的涌现性直接呈现出的是鲁棒性欠缺,导致算法的不确定性和不可解释性,其结果也影响到算法的真实性和可靠性,而同质性则放大了这些问题在横向和纵向上的影响。
Hendrycks 等将机器学习的鲁棒性解释为系统面对黑天鹅事件和对抗性威胁时表现出的能力。以交通灯为例,遵守信号灯行驶在绝大多数场景下是安全的,但是也有极少数特殊情况。比如,当十字路口横向来车闯红灯时,纵向行驶的车辆如若还按绿灯行驶就会造成车祸。考虑到通用模型的通用性质,现阶段大部分模型在制定安全性指标时会将一套复杂的人工智能安全性原则汇总到一个概括性的综合指标中,而不对其进行更细粒度的区分;但在具体应用场景中,往往需要考虑更细粒度的安全问题,如信号灯故障及其他突发、极端情况。
不同于黑天鹅事件,对抗性威胁通常是针对算法或模型漏洞和弱点的故意性攻击,操作方式通常是刻意在样本中加入人类无法察觉的干扰。2015 年,谷歌的研究人员发现,对抗样本可以轻易地欺骗GoogLeNet 模型。研究人员制作了两张熊猫图片,并在其中一幅的像素层面加入细微干扰作为对抗样本,对人类肉眼来说,这两张图几乎是一模一样,而机器学习模型却以高置信度将对抗样本误读为长臂猿。类似的情况还有,OpenAI 的研究人员发现其实验室最新的通用视觉模型可以轻易被欺骗。例如,如果在一颗青苹果上贴上“ipod”标签,那该模型有 99.7% 的概率将图中物体识别成 ipod,而不是青苹果。
产生对抗威胁的直接原因是模型与人类处理信息方式的不同,人类是基于各种可理解的特征来识别图片中的内容,如熊猫的黑眼圈、黑耳朵等。而模型的识别方法是基于对大规模数据样本的拟合学习,得出一个可以将所有图片与标签相关联的参数框架,然后再将这种关联泛化到其他任务中。但是这种关联本质上源于模型的涌现性,具有不确定性,有时是不可靠的。而由于通用模型作为“中介”和“促能”技术的重要意义,在下游的应用中起到了“母体”的作用,模型的细小误差可能对下游大规模应用带来影响。
究其根本,产生对抗性威胁的深层原因是模型无法从事实上区分信息的真实性,从而产生虚假的、误导性的或低质量的结果。并且,深度神经网络架构可能使每次推理结果都不同且可解释性低,这不仅对了解模型能做什么、为什么这么做及如何做带来困难,更是为模型的审核与合规带来了一系列挑战。“大数据+海量参数+大算力”提升了模型的总体表现,但是似乎并没有让模型做到像人一样的理解。这在类似下棋等娱乐场景并不会对人类生活产生负面影响。但是,对于诸如医疗诊断、刑侦司法、自动驾驶等重要领域,模型功能的涌现性、应用的同质化和可解释问题可能带来潜在风险。
_
数据层面:隐私安全、偏见、毒性与公平性问题
现阶段,通用模型在数据层面的主要伦理风险分 2 类:
1.训练样本中含有的偏见和毒性(toxicity)问题;
2.数据所涉及的隐私安全问题。
1
通用模型训练所用的数据量大且多为无标注数据,样本中易存在偏见和毒性问题,可能对个体或群体带来歧视和不公,且通用模型的同质化特征可能会放大或深化这些问题。
偏见可以理解为一种态度或行为上的倾向,在现实生活中常表现为对特定人群的区别对待,可能造成直接或间接的歧视和不公。美国国家标准与技术研究院将人工智能偏见分为 3 类:
1.系统偏见,指由历史、社会造成的对某些群体的偏袒或贬低;
2.统计偏见,指由于样本的代表性缺陷而导致的统计上的偏差;
3.人类偏见,指人类决策者思维的系统性错误,这种偏见通常是隐式的、与过往经验相联系。
毒性或有害言论与偏见类似,但特指粗鲁、不尊重或不合理的言论,如侮辱、仇恨、脏话、人身攻击、性骚扰等。从来源上说,偏见和有害语言都是复杂的历史产物,在人类社会中难以彻底消除;但如不加以注意,人工智能就可能会拓宽、深化、合并甚至标准化这些问题,或者带来新的问题。在通用模型的语境下,语料库和模型输出的毒性、偏见程度存在明显相关性。当样本中某些群体被缺乏、不实或过度代表时,模型结果就可能使部分人群——特别是边缘群体遭受不公正的对待,继承或加深社会刻板印象。例如,OpenAI 在用 ZSCLIP 模型鉴别 10000 张 FairFace 数据库的图片时,结果显示,通用模型对不同人群(如种族、性别、年龄等)的识别是不同的,如更容易将男性和 20 岁以下人群视为罪犯,更容易将女性识别为保姆。
2
隐私安全也是通用模型在数据层面的主要伦理挑战之一,包括数据泄露、功能僭变(functioncreep)、伪造、诈骗等具体问题。
隐私是数字化世界的主要伦理问题之一。通用模型研发和应用涉及的隐私风险主要来源于原始训练数据中包含的个人信息和模型强大的推理能力。通用模型训练多采用网络公开数据(如网页、论坛、论文、电子书等),其中可能包含姓名、家庭住址、电话号码等个人信息,甚至包含生物识别、宗教、医疗、行踪轨迹等敏感信息,这些信息的泄露不仅违法,且直接侵害到个人的尊严、人身和财产安全。通用模型的“一损俱损”效应也意味着,如果模型非法或不当使用了隐私数据,下游所有应用都会承担这种隐私风险。恶意使用者还可能将泄露信息进一步用于伪造、身份冒用、诈骗等不法目的,造成功能僭变(即泄露或超出原目的使用)。如近几年兴起的深度伪造技术,据 Sensity 的调查显示,在公开发布的深伪作品中,96% 都是虚假成人内容,即将网络图片合成到情色视频或图片上,而受害者绝大多数都是女性。
_
算力层面:可持续发展与全球正义
在全球“双碳”背景下,模型在算力层面所产生的能源和环境影响尤为值得重视。为应对气候危机,2015 年,178 个缔约方签署了《巴黎协定》,将控制气温上升作为长期目标,我国也于 2020 年明确了“双碳”目标。近年来,“军备竞赛式”的通用模型研发所造成的环境问题已经备受瞩目。Strubell 等梳理了几种常用的深度学习语言模型在训练环节的碳足迹和计算花费。结果显示,训练这些模型产生的二氧化碳当量(CO2e)从 0.012—284 吨不等。如在不做超参数调整的情况下,训练一个基于 Bert 的模型所造成的碳排放大致相当于一次环美飞行所造成的排量;而训练神经架构搜索模型所需的计算费用高达约 90 万—300 万美元不等。除了训练环节,模型在应用过程中的环境问题也不容忽视。图灵奖得主帕特森(DavidPatterson)等的研究显示,多数公司在运行深度神经网络模型时所消耗的能源和算力要多于模型训练阶段。
算力背后的能源和环境问题已经引发关于环境后果和全球正义的讨论。一方面,涉及代内正义,因为享受到通用模型便利的往往是发达国家和人群,而被气候变暖影响最严重的国家往往是落后的发展中国家。另一方面,能源消耗和环境污染也关涉代际正义,即对未来子孙的影响。
3
通用模型的中介性
美国著名计算机科学家格雷(JimGray)指出,传统上,科学研究的范式主要是实证的、理论的和计算式的,而随着仿真计算和数据收集工具的发展,大量的数据被收集起来,这也促使新的科学范式——数据密集型科学的产生。
预训练模型本质上也是数据驱动的,数据是模型知识的资料来源,模型的能力来自对大量无标注训练数据中抽象共现模式(co-occurrencepatterns)的学习 。举例来说,如果“面包与果酱”在训练数据中出现的概率很高,那么在运用该模型进行文本生成的时候,如果用户输入“面包与”,模型会在提示栏中显示“果酱”等其他高频共现词。Bender 等将大语言模型的这种映射行为称为“鹦鹉学舌”。这当中包含两个问题:
1.通用模型的“镜像”效应在透过数据表征世界的时候,也会将训练数据中包含的社会问题不加分辨地体现出来。对于通用模型来说,这种能力的核心是在海量无标注数据中学习通用的特征表示,提取出有价值的模式和规律,而不对数据内容加以鉴别,这就意味着,如果训练数据中与某些词汇(如“黑人”)相关联的内容多为负面的或刻板印象,则模型输出的结果就可能直接体现这些问题,并可能作为数字记忆将这些内容固化。
2.由于通用模型的映射行为反映的是训练数据的内在关联,而不是全面丰富、动态复杂的生活世界,选择哪些数据集、依据什么样的标准,以及如何界定核心概念都会对结果产生影响,导致模型结果可能存在可靠性问题。以上两个问题反映出数据驱动的模型可能存在的问题,即通用模型作为一种“镜像”可能无法准确反映世界,还会影响人类对世界的认识。
通用模型的这种“镜像”可以借用伊德(DonIhde)的技术哲学来解释。作为一种技术中介,通用模型可以调节人类认识和解释世界的过程。伊德在探讨技术在人与世界之间关系时提出技术与人的 4 种关系。在具身关系中,人类与技术作为一个整体去经验世界(如眼镜),此时技术是人“身体的延伸”,即(人-技术)→世界,有助于放大某些感官意识。具身关系要求技术的知觉透明性,即人类越了解技术,人与技术融合所能产生的效用越大。在诠释关系中,人类对世界的认识是经过技术工具表征转换的(如仪表盘),即人→(技术-世界),人们认识的世界是由技术诠释的,技术是世界的表征。诠释关系要求技术达到一定的发展程度,以精准反映世界。在它异关系中,强调技术的自主性,即当技术具有它者性(如人工智能)、成为认识的客体时,透过技术展现的世界就变成了一种技术的加工物,表述为人→技术-(-世界)。在背景关系中,技术作为一种技术背景,成为日常生活的一部分(如暖气),而人往往是在技术失效时才能意识到它的存在,即人→(技术/世界)。
在通用模型的语境下,伊德的“人-技术-世界”被“人-模型(数据)-世界”所取代。一方面,通用模型在某种程度上可以理解为数据和部分世界的“镜像”,拥有表征相关事物复杂逻辑关系的能力,人类透过模型来认识世界。然而,模型的“镜像”效应也将映射出现实世界中偏见歧视等伦理问题,对公平、自由、人格尊严等伦理价值造成挑战。另一方面,作为“身体的延伸”,人类又可能与模型融合在一起去经验世界,但是融合的实际效用取决于技术的透明性,在通用模型语境下主要表现为可解释性问题,即是否可以从人类的角度理解从输入到输出背后的映射逻辑。这关乎人类是否可以信任模型,包括模型是否可靠,是否能够符合具体的法律法规和伦理规范,是否可以用于科学研究等目的,以及是否可以部署到重要的生活领域,如帮助儿童学习知识,辅助法官判案等。传统上,判定某个人或团体的言论是否可靠的基本前提是他们知道自己在说什么,即理解这些言论的意思和背后映射的价值规范、行为要求和社会影响。但是,深度神经网络的可解释性和透明性较低,更多的是基于数据和参数的规模效应给出的粗略结果。在某种程度上是用相关性代替了因果性,伴随而来的就是上述信任的问题。
综上,通用模型在反映世界和让人理解两方面还存在一些问题,作为人与世界关系的技术中介,通用模型在帮助人类处理大规模下游任务的同时,也带来了一系列的不确定性。通用模型的“镜像”只是对训练数据的镜像,而不完全是现实世界的镜像,且人类还无法完全理解、信任模型的预测逻辑,如若想让模型的中介作用更加合理,人类必须在环路之中发挥更大的作用。
4
治理措施及局限性
通用模型的社会与伦理维度关乎模型未来的技术走向、规则制定、接受度等一系列问题,属于通用模型发展的基础问题。目前,很多企业及高校都已启动针对通用模型社会和伦理影响的研究,并制定系列举措对模型的研发和应用进行治理。
治理技术:上、下游伦理调节
当前,应对通用模型伦理挑战的技术可以粗略划分为上游手段和下游手段,主要是通过对上、下游训练数据进行伦理调节以降低模型“镜像”效应的潜在负面影响。
上游手段主要对应模型的预训练阶段。最典型的举措就是对训练数据集进行清洗。如,DeepMind 在改进 TransformerXL 模型的表现时,删去了被 PerspectiveAPI 注释为有毒的内容。PerspectiveAPI 通过志愿者打分的方式来量化线上评论的分数——如果 10 个评分者中有 6 个将评论标记为有毒,就将该评论的毒性标记为 0.6,代表词条文本有 60% 的可能性被认为是有害的,该评估模型目前已被广泛用于处理通用模型的毒性问题。由于毒性言论和偏见可能对特定人群造成直接或间接的不公且可能降低模型精度,改善这些问题对提高模型公平性、可靠性等具有明显益处。
下游手段主要指模型为适应具体任务而进行微调的阶段。为改善模型在特定领域的表现,多数研究团队倾向于下游处理,即在已经完成预训练的模型的基础上用有指向性的小规模数据集进行微调。目前,OpenAI、Google 等都使用了下游微调的手段来改善模型在特定社会和伦理维度上的表现,以增加模型在价值规范方面的敏感度和“理解力”,提高通用模型作为人与世界中介的伦理合理性。
治理机制:宏观与微观层面并行
通用模型的治理机制主要包括宏观和微观两个层面。
在宏观层面,通用模型治理要符合当前人工智能治理的总体框架。政府、国际组织、企业等都针对人工智能的发展制定了系列治理机制。总的来说,这些机制包括伦理原则(如我国的《新一代人工智能治理原则——发展负责任的人工智能》)、政策战略(如美国的《美国人工智能倡议》)、法律法规(如欧盟的《人工智能法(草案)》)、标准(IEEE 的 P7000系列)等。通用模型的治理隶属于相关主体发布的人工智能治理框架,同时受到行业组织、技术团体、新闻媒体、公众等多元主体的监督。
在微观层面,有必要针对通用模型的特性制定专门性治理机制。目前通用模型的专题治理以模型研发、应用的头部机构为主导,主要做法是针对模型的发布、应用制定一系列制度措施,包括:
1.分阶段开放模型。OpenAI 分 4 个阶段、由小至大开放了 GPT-2,以逐步了解模型特性,减少被滥用的可能性。
2.只针对特定对象开放,并与合作者签订法律协议以规定双方的权利和义务。
3.制定模型应用的具体规则。OpenAI 在开放 GPT-3 早期模型时会审查所有使用案例,并及时中止可能产生危害的应用,降低潜在风险。
上述治理机制和技术都在一定程度上降低了通用模型潜在的社会和伦理风险,但是这些措施仍具有一定的局限性。
1.现阶段针对通用模型的专题治理机制欠缺系统性,没有与人工智能的总体治理框架紧密结合。如果审查下游应用案例的伦理权力被模型提供者垄断,这种权力的集中不仅会降低伦理审查的效力,也提高了使用者的风险。
2.现阶段的治理技术还是相对割裂和零散的,没有将技术与伦理很好的融合。例如,作为应用最广泛的去毒评估模型,PerspectiveAPI 的众包评审机制更多是基于统计和描述的方法,缺乏规范性和理论性依据。一方面,有害文本的判断与个人经历、文化背景、内容场景等有很强的关联性,对用户 A 或某个地域的群体不具冒犯性的言论可能会冒犯到用户 B 或另外一个地域的群体。因此,需要在评估之前充分考虑评审规则的合理性、评审员的多样性等问题。另一方面,API 现有的打分方式无法区分有害文本的危害程度。现有的评分方式是基于文本被认为有害的可能性,即虽然一些行为比其他行为更让人感到冒犯,但模型只能区分一个行为的冒犯性与否,而不能体现冒犯行为之间的质量差异 。有必要在系统理论规范的指导下,探索更合理的分级机制。
总的来说,现阶段应对措施的局限性与缺乏系统性考虑和缺乏理论性、规范性指导密切关联。通用模型作为训练数据的“镜像”,具有建模复杂问题和映射社会问题的能力,但却存在对现实世界中事实与价值的粗糙处理,导致所谓的“长尾效应”,即从最普遍需求的角度来看,模型整体上表现优异且符合各项指标,但是对于差异化、特殊性、个性化的需求而言,模型仍然存在风险。为了使通用模型输出的结果更符合人类价值观,在模型发展的早期就将伦理理论和规范介入是十分必要的。
5
展望:建立开放式、全流程、价值嵌入的伦理工具
现阶段应对措施的局限性表明,下一阶段的通用模型治理需要将以下 3 个因素纳入考量。
1
要秉持开放式的态度,充分评估数据和模型的伦理影响和风险点。
这样做的前提是建立拥有交叉学科背景的伦理委员会、透明的评审规则、合理的伦理权力分配机制和第三方审查机制。在此基础上,从多角度评估数据和模型的潜在影响,特别是数据的多样性、文化背景和模型应用的时间和空间属性,充分评估模型在特定场景下、对特定人群可能产生的影响,降低潜在的负面效应。
2
从全流程的视角出发,将伦理考量纳入通用模型及其生态系统建设进程之中。
一方面,要通过教育、培训等手段加强科研人员和使用人员的伦理素养,让相关人群切实体会到科技伦理的重要性,负责任地研发、使用通用模型。另一方面,需要研发更系统的解决方案和上下游技术手段,对训练数据和模型表现进行伦理调节,改善模型在各个环节的道德敏感度。
3
要充分探索“价值敏感设计”“负责任创新”等伦理方法在通用模型语境下的可行性。
不仅要将伦理规范嵌入到技术研发中去,更要考虑如何通过对模型的伦理规制与技术对人的规制的双向互动,真正探索出合乎伦理的模型的研发之路,前瞻性地规避价值缺失、价值冲突、价值违背等价值问题,保证其在合规、合伦理的框架下促进人工智能的发展。
致谢
感谢乔宇和王昊奋对本文提出的建议,感谢傅则成的前期资料收集工作。
滕妍上海人工智能实验室治理研究中心青年研究员,荷兰代尔夫特理工大学博士。主要从事科技伦理和人工智能伦理治理研究。
王国豫复旦大学哲学学院教授、博士生导师,复旦大学生命医学伦理研究中心、应用伦理学研究中心主任。中国自然辩证法研究会科技与工程伦理专业委员会副理事长,上海市自然辩证法研究会理事长,上海国家新一代人工智能创新发展试验区专家咨询委员会委员,中国计算机学会职业伦理与学术道德委员会共同主席。主要从事应用伦理学和科技伦理、科技哲学的研究。
文章源自:
滕妍,王国豫,王迎春.通用模型的伦理与治理:挑战及对策.中国科学院院刊,2022,37(9):1290-1299.
DOI:10.16418/j.issn.1000-3045.20220505003返回搜狐,查看更多