联合国教科文组织发布《人工智能伦理建议书》
0分享至来源|unesco官网❑导读联合国教科文组织(UNESCO)通过了首个关于人工智能(AI)伦理的全球协议,以供193个成员国采用。官方公告称,该标准定义了共同的价值观和原则;用以指导建设必需的法律框架来确保人工智能的健康发展。近日,联合国教科文组织在法国巴黎发布了《人工智能伦理建议书》,这是全球首个针对人工智能伦理制定的规范框架。《人工智能伦理建议书》明确了规范人工智能技术的10大原则和11个行动领域,是迄今为止全世界在政府层面达成的最广泛的共识,是全球人工智能发展的共同纲领,并将为进一步形成人工智能有关的国际标准、国际法等提供强有力的参考。据悉,《人工智能伦理建议书》于2018年春季立项,由全球遴选的24人专家团撰写,经历了193个成员国之间超过100小时的多边谈判修订完成,于今年在联合国教科文组织第41届大会上获得通过。建议书给出了一个人工智能的定义:“将人工智能系统视为有能力以类似于智能行为的方式处理数据和信息的系统,通常包括推理、学习、感知、预测、规划或控制等方面。”宗旨和目的该建议书旨在让人工智能系统可以造福人类、个人、社会、环境和生态系统,同时防止危害。它还旨在促进和平利用人工智能系统。目的是在全球现有人工智能伦理框架之外,再提供一部全球公认的规范性文书,不仅注重阐明价值观和原则,而且着力于通过具体的政策建议切实落实这些价值观和原则,同时着重强调包容、性别平等以及环境和生态系统保护等问题。并强调人工智能有关的伦理问题复杂性,需要多方合作、共同承担责任。《人工智能伦理问题建议书》草案文本(注:已在联合国教科文组织第41届大会上获得会员国通过)序言联合国教育、科学及文化组织(教科文组织)大会于2021年11月9日至24日在巴黎召开第四十一届会议,认识到人工智能(AI)从正负两方面对社会、环境、生态系统和人类生活包括人类思想具有深刻而动态的影响,部分原因在于人工智能的使用以新的方式影响着人类的思维、互动和决策,并且波及到教育、人文科学、社会科学和自然科学、文化、传播和信息,忆及教科文组织根据《组织法》,力求通过教育、科学、文化以及传播和信息促进各国间之合作,对和平与安全作出贡献,以增进对正义、法治及所确认之世界人民均享人权与基本自由之普遍尊重,深信在此提出的建议书,作为以国际法为依据、采用全球方法制定且注重人的尊严和人权以及性别平等、社会和经济正义与发展、身心健康、多样性、互联性、包容性、环境和生态系统保护的准则性文书,可以引导人工智能技术向着负责任的方向发展,遵循《联合国宪章》的宗旨和原则,考虑到人工智能技术可以对人类大有助益并惠及所有国家,但也会引发根本性的伦理关切,例如:人工智能技术可能内嵌并加剧偏见,可能导致歧视、不平等、数字鸿沟和排斥,并对文化、社会和生物多样性构成威胁,造成社会或经济鸿沟;算法的工作方式和算法训练数据应具有透明度和可理解性;人工智能技术对于多方面的潜在影响,包括但不限于人的尊严、人权和基本自由、性别平等、民主、社会、经济、政治和文化进程、科学和工程实践、动物福利以及环境和生态系统,又认识到人工智能技术会加深世界各地国家内部和国家之间现有的鸿沟和不平等,必须维护正义、信任和公平,以便在公平获取人工智能技术、享受这些技术带来的惠益和避免受其负面影响方面不让任何国家和任何人掉队,同时认识到各国国情不同,并尊重一部分人不参与所有技术发展的意愿,意识到所有国家都正值信息和通信技术及人工智能技术使用的加速期,对于媒体与信息素养的需求日益增长,且数字经济带来了重大的社会、经济和环境挑战以及惠益共享的机会,对于中低收入国家(LMIC)——包括但不限于最不发达国家(LDC)、内陆发展中国家(LLDC)和小岛屿发展中国家(SIDS)而言尤为如此,需要承认、保护和促进本土文化、价值观和知识,以发展可持续的数字经济,还认识到人工智能技术具备有益于环境和生态系统的潜能,要实现这些惠益,不应忽视而是要去应对其对环境和生态系统的潜在危害和负面影响,注意到应对风险和伦理关切的努力不应妨碍创新和发展,而是应提供新的机会,激励合乎伦理的研究和创新,使人工智能技术立足于人权和基本自由、价值观和原则以及关于道义和伦理的思考,又忆及教科文组织大会在2019年11月第四十届会议上通过了第40C/37号决议,授权总干事“以建议书的形式编制一份关于人工智能伦理问题的国际准则性文书”,提交2021年大会第四十一届会议,认识到人工智能技术的发展需要相应提高数据、媒体与信息素养,并增加获取独立、多元、可信信息来源的机会,包括努力减少错误信息、虚假信息和仇恨言论的风险以及滥用个人数据造成的伤害,认为关于人工智能技术及其社会影响的规范框架应建立在共识和共同目标的基础上,以国际和国家法律框架、人权和基本自由、伦理、获取数据、信息和知识的需求、研究和创新自由、人类福祉、环境和生态系统福祉为依据,将伦理价值观和原则与同人工智能技术有关的挑战和机遇联系起来,又认识到伦理价值观和原则可以通过发挥指引作用,帮助制定和实施基于权利的政策措施和法律规范,以期加快技术发展步伐,又深信全球公认的、充分尊重国际法特别是人权法的人工智能技术伦理标准可以在世界各地制定人工智能相关规范方面起到关键作用,铭记《世界人权宣言》(1948年);国际人权框架文书,包括《关于难民地位的公约》(1951年)、《就业和职业歧视公约》(1958年)、《消除一切形式种族歧视国际公约》(1965年)、《公民及政治权利国际公约》(1966年)、《经济社会文化权利国际公约》(1966年)、《消除对妇女一切形式歧视公约》(1979年)、《儿童权利公约》(1989年)和《残疾人权利公约》(2006年);《反对教育歧视公约》(1960年);《保护和促进文化表现形式多样性公约》(2005年);以及其他一切相关国际文书、建议书和宣言,又注意到《联合国发展权利宣言》(1986年);《当代人对后代人的责任宣言》(1997年);《世界生物伦理与人权宣言》(2005年);《联合国土著人民权利宣言》(2007年);2014年联合国大会关于信息社会世界峰会审查的决议(A/RES/70/125)(2015年);联合国大会关于“变革我们的世界:2030年可持续发展议程”的决议(A/RES/70/1)(2015年);《关于保存和获取包括数字遗产在内的文献遗产的建议书》(2015年);《与气候变化有关的伦理原则宣言》(2017年);《关于科学和科学研究人员的建议书》(2017年);互联网普遍性指标(2018年获得教科文组织国际传播发展计划认可),包括立足人权、开放、人人可及和多利益攸关方参与原则(2015年获得教科文组织大会认可);人权理事会关于“数字时代的隐私权”的决议(A/HRC/RES/42/15)(2019年);以及人权理事会关于“新兴数字技术与人权”的决议(A/HRC/RES/41/11)(2019年),强调必须特别关注中低收入国家,包括但不限于最不发达国家、内陆发展中国家和小岛屿发展中国家,这些国家具备能力,但在人工智能伦理问题辩论中的代表性不足,由此引发了对于地方知识、文化多元化、价值体系以及应对人工智能技术的正负两方面影响需要实现全球公平的要求受到忽视的关切,又意识到在人工智能技术的伦理和监管方面,目前存在许多国家政策以及由联合国相关实体、政府间组织(包括地区组织)和由私营部门、专业组织、非政府组织和科学界制定的其他框架和倡议,还深信人工智能技术可以带来重大惠益,但实现这些惠益也会加剧围绕创新产生的矛盾冲突、知识和技术获取不对称(包括使公众参与人工智能相关议题的能力受限的数字和公民素养赤字)以及信息获取障碍、能力亦即人员和机构能力差距、技术创新获取障碍、缺乏适当的实体和数字基础设施以及监管框架(包括与数据有关的基础设施和监管框架)的问题,所有这些问题都需要解决,强调需要加强全球合作与团结,包括通过多边主义,以促进公平获取人工智能技术,应对人工智能技术给文化和伦理体系的多样性和互联性带来的挑战,减少可能的滥用,充分发挥人工智能可能给各个领域特别是发展领域带来的潜能,确保各国人工智能战略以伦理原则为指导,充分考虑到人工智能技术的快速发展对以合乎伦理的方式应用和治理人工智能技术以及对尊重和保护文化多样性提出了挑战,并有可能扰乱地方和地区的伦理标准和价值观,1.通过本人工智能伦理问题建议书;2.建议会员国在自愿基础上适用本建议书的各项规定,特别是根据各自国家的宪法实践和治理结构采取适当步骤,包括必要的立法或其他措施,依照包括国际人权法在内的国际法,使建议书的原则和规范在本国管辖范围内生效;3.又建议会员国动员包括工商企业在内的所有利益攸关方,确保他们在实施本建议书方面发挥各自的作用;并提请涉及人工智能技术的管理部门、机构、研究和学术组织、公共、私营和民间社会机构和组织注意本建议书,使人工智能技术的开发和应用做到以健全的科学研究以及伦理分析和评估作为指导。一、适用范围1.本建议书述及与人工智能领域有关且属于教科文组织职责范围之内的伦理问题。建议书以能指导社会负责任地应对人工智能技术对人类、社会、环境和生态系统产生的已知和未知影响并相互依存的价值观、原则和行动构成的不断发展的整体、全面和多元文化框架为基础,将人工智能伦理作为一种系统性规范考量,并为社会接受或拒绝人工智能技术提供依据。建议书将伦理视为对人工智能技术进行规范性评估和指导的动态基础,以人的尊严、福祉和防止损害为导向,并立足于科技伦理。2.本建议书无意对人工智能作出唯一的定义,这种定义需要随着技术的发展与时俱进。建议书旨在探讨人工智能系统中具有核心伦理意义的特征。因此,本建议书将人工智能系统视为有能力以类似于智能行为的方式处理数据和信息的系统,通常包括推理、学习、感知、预测、规划或控制等方面。这一方法有三个重要因素:(a)人工智能系统是整合模型和算法的信息处理技术,这些模型和算法能够生成学习和执行认知任务的能力,从而在物质环境和虚拟环境中实现预测和决策等结果。在设计上,人工智能系统借助知识建模和知识表达,通过对数据的利用和对关联性的计算,可以在不同程度上实现自主运行。人工智能系统可以包含若干种方法,包括但不限于:(i)机器学习,包括深度学习和强化学习;(ii)机器推理,包括规划、调度、知识表达和推理、搜索和优化。人工智能系统可用于信息物理系统,包括物联网、机器人系统、社交机器人和涉及控制、感知及处理传感器所收集数据的人机交互以及人工智能系统工作环境中执行器的操作。(b)与人工智能系统有关的伦理问题涉及人工智能系统生命周期的各个阶段,此处系指从研究、设计、开发到配置和使用等各阶段,包括维护、运行、交易、融资、监测和评估、验证、使用终止、拆卸和终结。此外,人工智能行为者可以定义为在人工智能系统生命周期内至少参与一个阶段的任何行为者,可指自然人和法人,例如研究人员、程序员、工程师、数据科学家、终端用户、工商企业、大学和公私实体等。(c)人工智能系统引发了新型伦理问题,包括但不限于其对决策、就业和劳动、社交、卫生保健、教育、媒体、信息获取、数字鸿沟、个人数据和消费者保护、环境、民主、法治、安全和治安、双重用途、人权和基本自由(包括表达自由、隐私和非歧视)的影响。此外,人工智能算法可能复制和加深现有的偏见,从而加剧已有的各种形式歧视、偏见和成见,由此产生新的伦理挑战。其中一些问题与人工智能系统能够完成此前只有生物才能完成、甚至在有些情况下只有人类才能完成的任务有关。这些特点使得人工智能系统在人类实践和社会中以及在与环境和生态系统的关系中,可以起到意义深远的新作用,为儿童和青年的成长、培养对于世界和自身的认识、批判性地认识媒体和信息以及学会作出决定创造了新的环境。从长远看,人工智能系统可能挑战人类特有的对于经验和能动作用的感知,在人类的自我认知、社会、文化和环境的互动、自主性、能动性、价值和尊严等方面引发更多关切。3.秉承教科文组织世界科学知识与技术伦理委员会(COMEST)在2019年《人工智能伦理问题初步研究》中的分析,本建议书特别关注人工智能系统与教育、科学、文化、传播和信息等教科文组织核心领域有关的广泛伦理影响:(a)教育,这是因为鉴于对劳动力市场、就业能力和公民参与的影响,生活在数字化社会需要新的教育实践、伦理反思、批判性思维、负责任的设计实践和新的技能。(b)科学,系指最广泛意义上的科学,包括从自然科学、医学到社会科学和人文科学等所有学术领域,这是由于人工智能技术带来了新的研究能力和方法,影响到我们关于科学认识和解释的观念,为决策创建了新的基础。(c)文化特性和多样性,这是由于人工智能技术可以丰富文化和创意产业,但也会导致文化内容的供应、数据、市场和收入更多地集中在少数行为者手中,可能对语言、媒体、文化表现形式、参与和平等的多样性和多元化产生负面影响。(d)传播和信息,这是由于人工智能技术在处理、组织和提供信息方面起到日益重要的作用;很多现象引发了与信息获取、虚假信息、错误信息、仇恨言论、新型社会叙事兴起、歧视、表达自由、隐私、媒体与信息素养等有关的问题,自动化新闻、通过算法提供新闻、对社交媒体和搜索引擎上的内容进行审核和策管只是其中几个实例。4.本建议书面向会员国,会员国既是人工智能行为者,又是负责制定人工智能系统整个生命周期的法律和监管框架并促进企业责任的管理部门。此外,建议书为贯穿人工智能系统生命周期的伦理影响评估奠定了基础,从而为包括公共和私营部门在内的所有人工智能行为者提供伦理指南。二、宗旨和目标5.本建议书旨在提供基础,让人工智能系统可以造福人类、个人、社会、环境和生态系统,同时防止危害。它还旨在促进和平利用人工智能系统。6.本建议书的目的是在全球现有人工智能伦理框架之外,再提供一部全球公认的规范性文书,不仅注重阐明价值观和原则,而且着力于通过具体的政策建议切实落实这些价值观和原则,同时着重强调包容、性别平等以及环境和生态系统保护等问题。7.由于与人工智能有关的伦理问题十分复杂,需要国际、地区和国家各个层面和各个部门的众多利益攸关方开展合作,故而本建议书的宗旨是让利益攸关方能够在全球和文化间对话的基础上共同承担责任。8.本建议书的目标如下:(a)依照国际法,提供一个由价值观、原则和行动构成的普遍框架,指导各国制定与人工智能有关的立法、政策或其他文书;(b)指导个人、团体、社群、机构和私营公司的行动,确保将伦理规范嵌入人工智能系统生命周期的各个阶段;(c)在人工智能系统生命周期的各个阶段保护、促进和尊重人权和基本自由、人的尊严和平等,包括性别平等;保障当代和后代的利益;保护环境、生物多样性和生态系统;尊重文化多样性;(d)推动多利益攸关方、多学科和多元化对话和建立共识,讨论与人工智能系统有关的伦理问题;(e)促进对人工智能领域进步和知识的公平获取以及惠益共享,特别关注包括最不发达国家、内陆发展中国家和小岛屿发展中国家在内的中低收入国家的需求和贡献。三、价值观和原则9.首先,人工智能系统生命周期的所有行为者都应尊重下文所载的价值观和原则,并在必要和适当的情况下,通过修订现行的和制定新的法律、法规和业务准则来促进这些价值观和原则。这必须遵守国际法,包括《联合国宪章》和会员国的人权义务,并应符合国际商定的社会、政治、环境、教育、科学和经济可持续性目标,例如联合国可持续发展目标(SDG)。10.价值观作为催人奋进的理想,在制定政策措施和法律规范方面发挥着强大作用。下文概述的一系列价值观可以激发理想的行为并是确立原则的基础,而原则更为具体地阐述作为其根本的价值观,以便更易于在政策声明和行动中落实这些价值观。11.下文概述的所有价值观和原则本身都是可取的,但在任何实际情况下这些价值观和原则之间都可能会有矛盾。在特定情况下,需要根据具体情况进行评估以管控潜在的矛盾,同时考虑到相称性原则并尊重人权和基本自由。在所有情况下,可能对人权和基本自由施加的任何限制均必须具有合法基础,而且必须合理、必要和相称,符合各国依据国际法所承担的义务。要做到明智而审慎地处理这些情况,通常需要与广泛的相关利益攸关方合作,同时利用社会对话以及伦理审议、尽职调查和影响评估。12.人工智能系统生命周期的可信度和完整性对于确保人工智能技术造福人类、个人、社会、环境和生态系统并且体现出本建议书提出的价值观和原则至关重要。在采取适当措施降低风险时,人们应有充分理由相信人工智能系统能够带来个人利益和共享利益。具有可信度的一个基本必要条件是,人工智能系统在整个生命周期内都受到相关利益攸关方适当的全面监测。由于可信度是本文件所载各项原则得到落实的结果,本建议书提出的政策行动建议均旨在提升人工智能系统生命周期各个阶段的可信度。3.1价值观【尊重、保护和促进人权和基本自由以及人的尊严】13.每个人与生俱来且不可侵犯的尊严构成了人权和基本自由这一普遍、不可分割、不可剥夺、相互依存又彼此相关的体系的基础。因此,尊重、保护和促进包括国际人权法在内的国际法确立的人的尊严和权利,在人工智能系统的整个生命周期内都至关重要。人的尊严系指承认每个人固有和平等的价值,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。14.在人工智能系统生命周期的任何阶段,任何人或人类社群在身体、经济、社会、政治、文化或精神等任何方面,都不应受到损害或被迫居于从属地位。在人工智能系统的整个生命周期内,人类生活质量都应得到改善,而“生活质量”的定义只要不侵犯或践踏人权和基本自由或人的尊严,应由个人或群体来决定。15.在人工智能系统的整个生命周期内,人会与人工智能系统展开互动,接受这些系统提供的帮助,例如照顾弱势者或处境脆弱群体,包括但不限于儿童、老年人、残障人士或病人。在这一互动过程中绝不应将人物化,不应以其他方式损害人的尊严,也不应侵犯或践踏人权和基本自由。16.在人工智能系统的整个生命周期内,必须尊重、保护和促进人权和基本自由。各国政府、私营部门、民间社会、国际组织、技术界和学术界在介入与人工智能系统生命周期有关的进程时,必须尊重人权文书和框架。新技术应为倡导、捍卫和行使人权提供新手段,而不是侵犯人权。【环境和生态系统蓬勃发展】17.应在人工智能系统的整个生命周期内确认、保护和促进环境和生态系统的蓬勃发展。此外,环境和生态系统是关乎人类和其他生物能否享受人工智能进步所带来惠益的必要条件。18.参与人工智能系统生命周期的所有行为者都必须遵守适用的国际法以及国内立法、标准和惯例,例如旨在保护和恢复环境和生态系统以及促进可持续发展的预防措施。这些行为者应减少人工智能系统对环境的影响,包括但不限于碳足迹,以确保将气候变化和环境风险因素降到最低,防止会加剧环境恶化和生态系统退化的对自然资源的不可持续开采、使用和转化。【确保多样性和包容性】19.在人工智能系统的整个生命周期内,应依照包括人权法在内的国际法,确保尊重、保护和促进多样性和包容性。为此,可以促进所有个人或群体的积极参与,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。20.对于生活方式的选择范围、信仰、意见、表达形式或个人经验,包括对于人工智能系统的任选使用以及这些架构的共同设计,在人工智能系统生命周期的任何阶段都不应受到限制。21.此外,应作出努力,包括开展国际合作,以克服并绝不利用影响到社区的缺乏必要技术基础设施、教育和技能以及法律框架的情况,特别是在中低收入国家、最不发达国家、内陆发展中国家和小岛屿发展中国家中。【生活在和平、公正与互联的社会中】22.人工智能行为者应为确保建设和平与公正的社会发挥参与和促进作用,这种社会的根基是惠及全民、符合人权和基本自由的相互关联的未来。在和平与公正的社会中生活的价值观表明,人工智能系统在整个生命周期内都有可能为所有生物之间及其与自然环境之间的相互关联作出贡献。23.人与人之间相互联系的概念是基于这样一种认识,即每个人都属于一个更大的整体,当这个整体中的组成部分都能够繁荣兴旺时,整体才会蒸蒸日上。在和平、公正与互联的社会中生活,需要一种有机、直接、出自本能的团结纽带,其特点是不懈地寻求和平关系,倾向于在最广泛的意义上关爱他人和自然环境。24.这一价值观要求在人工智能系统的整个生命周期内促进和平、包容与正义、公平和相互联系,人工智能系统生命周期的各种进程不得隔离或物化人类和社区或者削弱其自由、自主决策和安全,不得分裂个人和群体或使之相互对立,也不得威胁人类、其他生物和自然环境之间的共存。3.2原则【相称性和不损害】25.应该认识到,人工智能技术本身并不一定能确保人类、环境和生态系统蓬勃发展。况且,与人工智能系统生命周期有关的任何进程都不得超出实现合法目的或目标所需的范围,并应切合具体情况。在有可能对人类、人权和基本自由、个别社区和整个社会,或者对环境和生态系统造成损害时,应确保落实风险评估程序并采取措施,以防止发生此类损害。26.应从以下方面证明选择使用人工智能系统和选用哪种人工智能方法的合理性:(a)所选择的人工智能方法对于实现特定合法目标应该是适当的和相称的;(b)所选择的人工智能方法不得违背本文件提出的基本价值观,特别是其使用不得侵犯或践踏人权;(c)人工智能方法应切合具体情况,并应建立在严谨的科学基础上。在所涉决定具有不可逆转或难以逆转的影响或者在涉及生死抉择的情况下,应由人类作出最终决定。人工智能系统尤其不得用于社会评分或大规模监控目的。【安全和安保】27.在人工智能系统的整个生命周期内,应避免并解决、预防和消除意外伤害(安全风险)以及易受攻击的脆弱性(安保风险),确保人类、环境和生态系统的安全和安保。开发可持续和保护隐私的数据获取框架,促进利用优质数据更好地训练和验证人工智能模型,便可以实现有安全和安保保障的人工智能。【公平和非歧视】28.人工智能行为者应根据国际法,促进社会正义并保障一切形式的公平和非歧视。这意味着要采用包容性办法确保人工智能技术的惠益人人可得可及,同时又考虑到不同年龄组、文化体系、不同语言群体、残障人士、女童和妇女以及处境不利、边缘化和弱势群体或处境脆弱群体的具体需求。会员国应努力让包括地方社区在内的所有人都能够获取提供本地相关内容和服务且尊重多语言使用和文化多样性的人工智能系统。会员国应努力消除数字鸿沟,并确保对人工智能发展的包容性获取和参与。在国家层面,会员国应努力在人工智能系统生命周期的准入和参与问题上促进城乡之间的公平,以及所有人之间的公平,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。在国际层面,技术最先进的国家有责任支持最落后的国家,确保共享人工智能技术的惠益,使得后者能够进入和参与人工智能系统生命周期,从而推动建设一个在信息、传播、文化、教育、研究、社会经济和政治稳定方面更加公平的世界秩序。29.人工智能行为者应尽一切合理努力,在人工智能系统的整个生命周期内尽量减少和避免强化或固化带有歧视性或偏见的应用程序和结果,确保人工智能系统的公平。对于带有歧视性和偏见的算法决定,应提供有效的补救办法。30.此外,在人工智能系统的整个生命周期内,需要解决国家内部和国家之间的数字和知识鸿沟,包括根据相关的国家、地区和国际法律框架解决技术和数据获取及获取质量方面的鸿沟,以及在连接性、知识和技能以及受影响社区的切实参与方面的鸿沟,以便让每个人都得到公平待遇。【可持续性】31.可持续社会的发展,有赖于在人类、社会、文化、经济和环境等方面实现一系列复杂的目标。人工智能技术的出现可能有利于可持续性目标,但也可能阻碍这些目标的实现,这取决于处在不同发展水平的国家如何应用人工智能技术。因此,在就人工智能技术对人类、社会、文化、经济和环境的影响开展持续评估时,应充分考虑到人工智能技术对于作为一套涉及多方面的动态目标(例如目前在联合国可持续发展目标中认定的目标)的可持续性的影响。【隐私权和数据保护】32.隐私权对于保护人的尊严、自主权和能动性不可或缺,在人工智能系统的整个生命周期内必须予以尊重、保护和促进。重要的是,人工智能系统所用数据的收集、使用、共享、归档和删除方式,必须符合国际法,契合本建议书提出的价值观和原则,同时遵守相关的国家、地区和国际法律框架。33.应在国家或国际层面采用多利益攸关方办法,建立适当的数据保护框架和治理机制,将其置于司法系统保护之下,并在人工智能系统的整个生命周期内予以保障。数据保护框架和任何相关机制应参鉴有关收集、使用和披露个人数据以及数据主体行使其权利的国际数据保护原则和标准,同时确保对个人数据的处理具有合法的目的和有效的法律依据,包括取得知情同意。34.需要对算法系统开展充分的隐私影响评估,其中包括使用算法系统的社会和伦理考量以及通过设计方法对于隐私的创新使用。人工智能行为者需要确保他们对人工智能系统的设计和实施负责,以确保个人信息在人工智能系统的整个生命周期内受到保护。【人类的监督和决定】35.会员国应确保始终有可能将人工智能系统生命周期的任何阶段以及与人工智能系统有关的补救措施的伦理和法律责任归属于自然人或现有法人实体。因此,人类监督不仅指个人监督,在适当情况下也指范围广泛的公共监督。36.在某些情况下,出于效率性的考虑,人类有时选择依赖人工智能系统,但是否在有限情形下出让控制权依然要由人类来决定,这是由于人类在决策和行动上可以借助人工智能系统,但人工智能系统永远无法取代人类的最终责任和问责。一般而言,生死攸关的决定不应让给人工智能系统来作。【透明度和可解释性】37.人工智能系统的透明度和可解释性往往是确保人权、基本自由和伦理原则得到尊重、保护和促进的必要先决条件。透明度是相关国家和国际责任制度有效运作的必要因素。缺乏透明度还可能削弱对根据人工智能系统产生的结果所作决定提出有效质疑的可能性,进而可能侵犯获得公平审判和有效补救的权利,并限制这些系统的合法使用领域。38.在人工智能系统的整个生命周期内都需要努力提高人工智能系统(包括那些具有域外影响的系统)的透明度和可解释性,以支持民主治理,但透明度和可解释性的程度应始终切合具体情况并与其影响相当,因为可能需要在透明度和可解释性与隐私、安全和安保等其他原则之间取得平衡。在所涉决定系参考或依据人工智能算法作出的情况下,包括在所涉决定关乎民众安全和人权的情况下,民众应该被充分告知,并且在此类情况下有机会请求相关人工智能行为者或公共机构提供解释性信息。此外,对于影响其权利和自由的决定,个人应能够了解据以作出该决定的理由,并可以选择向能够审查和纠正该决定的私营公司或公共机构指定工作人员提出意见。对于由人工智能系统直接提供或协助提供的产品或服务,人工智能行为者应以适当和及时的方式告知用户。39.从社会—技术角度来看,提高透明度有助于建设更加和平、公正、民主和包容的社会。提高透明度有利于开展公众监督,这可以减少腐败和歧视,还有助于发现和防止对人权产生的负面影响。透明度的目的是为相关对象提供适当的信息,以便他们理解和增进信任。具体到人工智能系统,透明度可以帮助人们了解人工智能系统各个阶段是如何按照该系统的具体环境和敏感度设定的。透明度还包括深入了解可以影响特定预测或决定的因素,以及了解是否具备适当的保证(例如安全或公平措施)。在存在会对人权产生不利影响的严重威胁的情况下,透明度要求可能还包括共享代码或数据集。40.可解释性是指让人工智能系统的结果可以理解,并提供阐释说明。人工智能系统的可解释性也指各个算法模块的输入、输出和性能的可解释性及其如何促成系统结果。因此,可解释性与透明度密切相关,结果和导致结果的子过程应以可理解和可追溯为目标,并且应切合具体情况。人工智能行为者应致力于确保开发出的算法是可以解释的。就对终端用户所产生的影响不是暂时的、容易逆转的或低风险的人工智能应用程序而言,应确保对导致所采取行动的任何决定作出有意义的解释,以便使这一结果被认为是透明的。41.透明度和可解释性与适当的责任和问责措施以及人工智能系统的可信度密切相关。【责任和问责】42.人工智能行为者和会员国应根据国家法律和国际法,特别是会员国的人权义务,以及人工智能系统整个生命周期的伦理准则,包括在涉及其有效疆域和实际控制范围内的人工智能行为者方面,尊重、保护和促进人权和基本自由,并且还应促进对环境和生态系统的保护,同时承担各自的伦理和法律责任。以任何方式基于人工智能系统作出的决定和行动,其伦理责任和义务最终都应由人工智能行为者根据其在人工智能系统生命周期中的作用来承担。43.应建立适当的监督、影响评估、审计和尽职调查机制,包括保护举报者,确保在人工智能系统的整个生命周期内对人工智能系统及其影响实施问责。技术和体制方面的设计都应确保人工智能系统(的运行)可审计和可追溯,特别是要应对与人权规范和标准之间的冲突以及对环境和生态系统福祉的威胁。【认识和素养】44.应通过由政府、政府间组织、民间社会、学术界、媒体、社区领袖和私营部门共同领导并顾及现有的语言、社会和文化多样性的开放且可获取的教育、公民参与、数字技能和人工智能伦理问题培训、媒体与信息素养及培训,促进公众对于人工智能技术和数据价值的认识和理解,确保公众的有效参与,让所有社会成员都能够就使用人工智能系统作出知情决定,避免受到不当影响。45.了解人工智能系统的影响,应包括了解、借助以及促进人权和基本自由。这意味着在接触和理解人工智能系统之前,应首先了解人工智能系统对人权和权利获取的影响,以及对环境和生态系统的影响。46.对数据的使用必须尊重国际法和国家主权。这意味着各国可根据国际法,对在其境内生成或经过其国境的数据进行监管,并采取措施,力争在依照国际法尊重隐私权以及其他人权规范和标准的基础上对数据进行有效监管,包括数据保护。47.不同利益攸关方对人工智能系统整个生命周期的参与,是采取包容性办法开展人工智能治理、使惠益能够为所有人共享以及推动可持续发展的必要因素。利益攸关方包括但不限于政府、政府间组织、技术界、民间社会、研究人员和学术界、媒体、教育、政策制定者、私营公司、人权机构和平等机构、反歧视监测机构以及青年和儿童团体。应采用开放标准和互操作性原则,以促进协作。应采取措施,兼顾技术的变化和新利益攸关方群体的出现,并便于边缘化群体、社区和个人切实参与,同时酌情尊重土著人民对其数据的自我管理。四、政策行动领域48.以下政策领域所述的政策行动是对本建议书提出的价值观和原则的具体落实。主要行动是会员国出台有效措施,包括政策框架或机制等,并通过开展多种行动,例如鼓励所有利益攸关方根据包括联合国《工商企业与人权指导原则》在内的准则制定人权、法治、民主以及伦理影响评估和尽职调查工具,确保私营公司、学术和研究机构以及民间社会等其他利益攸关方遵守这些框架或机制。此类政策或机制的制定过程应包括所有利益攸关方并应考虑到各会员国的具体情况和优先事项。教科文组织可以作为合作伙伴,支持会员国制定、监测和评估政策机制。49.教科文组织认识到,各会员国在科学、技术、经济、教育、法律、规范、基础设施、社会、文化和其他方面,处于实施本建议书的不同准备阶段。需要指出的是,这里的“准备”是一种动态。因此,为切实落实本建议书,教科文组织将:(1)制定准备状态评估方法,协助有关会员国确定其准备进程各个方面在特定时刻的所处状态;(2)确保支持有关会员国制定教科文组织人工智能技术伦理影响评估(EIA)方法,分享最佳做法、评估准则、其他机制和分析工作。【政策领域1:伦理影响评估】50.会员国应出台影响评估(例如伦理影响评估)框架,以确定和评估人工智能系统的惠益、关切和风险,并酌情出台预防、减轻和监测风险的措施以及其他保障机制。此种影响评估应根据本建议书提出的价值观和原则,确定对人权和基本自由(特别是但不限于边缘化和弱势群体或处境脆弱群体的权利、劳工权利)、环境和生态系统产生的影响以及伦理和社会影响,并促进公民参与。51.会员国和私营公司应建立尽职调查和监督机制,以确定、防止和减轻人工智能系统对尊重人权、法治和包容性社会产生的影响,并说明如何处理这些影响。会员国还应能够评估人工智能系统对贫困问题产生的社会经济影响,确保人工智能技术在目前和未来的大规模应用不会加剧各国之间以及国内的贫富差距和数字鸿沟。为做到这一点,尤其应针对信息(包括私营实体掌握的涉及公共利益的信息)获取,实行可强制执行的透明度协议。会员国、私营公司和民间社会应调查基于人工智能的建议对人类决策自主权的社会学和心理学影响。对于经确认对人权构成潜在风险的人工智能系统,在投放市场之前,人工智能行为者应对其进行广泛测试,包括必要时,作为伦理影响评估的一部分,在真实世界的条件下进行测试。52.会员国和工商企业应采取适当措施,监测人工智能系统生命周期的各个阶段,包括用于决策的算法的性能、数据以及参与这一过程的人工智能行为者,特别是在公共服务领域和需要与终端用户直接互动的领域,以配合开展伦理影响评估。人工智能系统评估的伦理方面应包含会员国的人权法义务。53.各国政府应采用监管框架,其中特别针对公共管理部门提出人工智能系统伦理影响评估程序,以预测后果,减少风险,避免有害后果,促进公民参与并应对社会挑战。评估还应确立能够对算法、数据和设计流程加以评估并包括对人工智能系统的外部审查的适当监督机制,包括确定可审计性、可追溯性和可解释性。伦理影响评估应透明,并酌情向公众开放。此类评估还应具备多学科、多利益攸关方、多文化、多元化和包容等特性。应要求公共管理部门引入适当的机制和工具,监测这些部门实施和/或部署的人工智能系统。【政策领域2:伦理治理和管理】54.会员国应确保人工智能治理机制具备包容性、透明性、多学科、多边(包括跨界减轻损害和作出补救的可能性)和多利益攸关方等特性。特别是,治理应包括预测、有效保护、监测影响、执行和补救等方面。55.会员国应通过实施有力的执行机制和补救行动,确保调查并补救人工智能系统造成的损害,从而确保人权和基本自由以及法治在数字世界与现实世界中同样得到尊重。此类机制和行动应包括私营公司和公营公司提供的补救机制。为此,应提升人工智能系统的可审计性和可追溯性。此外,会员国应加强履行这项承诺的机构能力,并应与研究人员和其他利益攸关方合作调查、防止并减少对于人工智能系统的潜在恶意使用。56.鼓励会员国根据应用领域的敏感程度、对人权、环境和生态系统的预期影响以及本建议书提出的其他伦理考量,制定国家和地区人工智能战略,并考虑多种形式的柔性治理,例如人工智能系统认证机制和此类认证的相互承认。此类机制可以包括针对系统、数据以及伦理准则和伦理方面的程序要求的遵守情况开展不同层面的审计。另一方面,此类机制不得因行政负担过重而妨碍创新,或者让中小企业或初创企业、民间社会以及研究和科学组织处于不利地位。此类机制还应包括定期监测,在人工智能系统的整个生命周期内确保系统的稳健性、持续完整性和遵守伦理准则,必要时可要求重新认证。57.会员国和公共管理部门应对现有和拟议的人工智能系统进行透明的自我评估,其中尤其应包括对采用人工智能是否适当进行评估,如果适当则应为确定适当的方法开展进一步评估,并评估采用这种方法是否会导致违反或滥用会员国的人权法义务,如果是则应禁止采用。58.会员国应鼓励公共实体、私营公司和民间社会组织让不同利益攸关方参与其人工智能治理工作,并考虑增设独立的人工智能伦理干事岗位或某种其他机制,负责监督伦理影响评估、审计和持续监测工作,确保对于人工智能系统的伦理指导。鼓励会员国、私营公司和民间社会组织在教科文组织的支持下,创设独立的人工智能伦理干事网络,为国家、地区和国际层面的这一进程提供支持。59.会员国应促进数字生态系统的发展和获取,以便在国家层面以合乎伦理和包容各方的方式发展人工智能系统,包括消除在人工智能系统生命周期准入方面的差距,同时推动国际合作。此类生态系统尤其包括数字技术和基础设施,在适当情况下还包括人工智能知识共享机制。60.会员国应与国际组织、跨国公司、学术机构和民间社会合作建立机制,确保所有会员国积极参与关于人工智能治理的国际讨论,特别是中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。可以通过提供资金、确保平等的地区参与或任何其他机制来实现这一目标。此外,为确保人工智能论坛的包容性,会员国应为人工智能行为者的出入境提供便利,特别是中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家的行为者,以便其参加此类论坛。61.修订现行的或制定新的有关人工智能系统的国家立法,必须遵守会员国的人权法义务,并在人工智能系统的整个生命周期内促进人权和基本自由。随着人工智能技术的发展,还应采取以下形式促进人权和基本自由:治理举措;关于人工智能系统的合作实践的良好范例;国家及国际技术和方法准则。包括私营部门在内的各个部门在其关于人工智能系统的实践中必须利用现有的和新的文书以及本建议书,尊重、保护和促进人权和基本自由。62.为执法、福利、就业、媒体和信息提供者、卫生保健和独立司法系统等对人权敏感的用途获取人工智能系统的会员国应建立机制,由独立的数据保护机关、行业监督机构和负责监督的公共机构等适当监督部门监测人工智能系统的社会和经济影响。63.会员国应增强司法机构根据法治以及国际法和国际标准作出与人工智能系统有关决定(包括在其审议中使用人工智能系统的决定)的能力,同时确保坚持人类监督原则。司法机关如若使用人工智能系统,则需要有足够的保障措施,尤其要保障对基本人权的保护、法治、司法独立以及人类监督原则,并确保司法机关对人工智能系统的开发和使用值得信赖、以公共利益为导向且以人为本。64.会员国应确保政府和多边组织在保障人工智能系统的安全和安保方面起到主导作用,并吸收多利益攸关方参与其中。具体而言,会员国、国际组织和其他相关机构应制定国际标准,列出可衡量和可检测的安全和透明度等级,以便能够客观评估人工智能系统并确定合规水平。此外,会员国和工商企业应对人工智能技术潜在安全和安保风险的战略研究提供持续支持,并应鼓励透明度、可解释性、包容和素养问题研究,在不同方面和不同层面(例如技术语言和自然语言)为这些领域投入更多资金。65.会员国应实施政策,在人工智能系统的整个生命周期内确保人工智能行为者的行动符合国际人权法、标准和原则,同时充分考虑到当前的文化和社会多样性,包括地方习俗和宗教传统,并适当考虑到人权的优先性和普遍性。66.会员国应建立机制,要求人工智能行为者披露并打击人工智能系统结果和数据中任何类型的陈规定型观念,无论是设计使然还是出于疏忽,确保人工智能系统的训练数据集不会助长文化、经济或社会不平等和偏见,不会散播虚假信息和错误信息,也不会干扰表达自由和信息获取。应特别关注数据匮乏地区。67.会员国应实施政策,促进并提高人工智能开发团队和训练数据集的多样性和包容性,以反映其人口状况,确保人工智能技术及其惠益的平等获取,特别是对农村和城市地区的边缘化群体而言。68.会员国应酌情制定、审查并调整监管框架,在人工智能系统生命周期的不同阶段对其内容和结果实施问责制和责任制。会员国应在必要时出台责任框架或澄清对现有框架的解释,确保为人工智能系统的结果和性能确定责任归属。此外,会员国在制定监管框架时,应特别考虑到最终责任和问责必须总是落实到自然人或法人身上,人工智能系统本身不应被赋予法人资格。为确保这一点,此类监管框架应符合人类监督原则,并确立着眼于人工智能系统生命周期不同阶段的人工智能行为者和技术流程的综合性方法。69.为在空白领域确立规范或调整现有的法律框架,会员国应让所有人工智能行为者(包括但不限于研究人员、民间社会和执法部门的代表、保险公司、投资者、制造商、工程师、律师和用户)参与其中。这些规范可以发展成为最佳做法、法律和法规。进一步鼓励会员国采用样板政策和监管沙箱等机制,加快制定与新技术的飞速发展相适应的法律、法规和政策,包括对其进行定期审查,确保法律法规在正式通过之前能够在安全环境下进行测试。会员国应支持地方政府制定符合国家和国际法律框架的地方政策、法规和法律。70.会员国应对人工智能系统的透明度和可解释性提出明确要求,以协助确保人工智能系统整个生命周期的可信度。此类要求应包括影响机制的设计和实施,其中要考虑到每个特定人工智能系统的应用领域的性质、预期用途、目标受众和可行性。【政策领域3:数据政策】71.会员国应努力制定数据治理战略,确保持续评估人工智能系统训练数据的质量,包括数据收集和选择过程的充分性、适当的数据安全和保护措施以及从错误中学习和在所有人工智能行为者之间分享最佳做法的反馈机制。72.会员国应采取适当的保障措施,根据国际法保护隐私权,包括应对人们对于监控等问题的关切。会员国尤其应通过或实施可以提供适当保护并符合国际法的法律框架。会员国应大力鼓励包括工商企业在内的所有人工智能行为者遵守现行国际标准,特别是在伦理影响评估中开展适当的隐私影响评估,其中要考虑到预期数据处理产生的更广泛的社会经济影响,并在其系统中采用从设计入手保护隐私的做法。在人工智能系统的整个生命周期内应尊重、保护和促进隐私。73.会员国应确保个人可以保留对于其个人数据的权利并得到相关框架的保护,此类框架尤其应预见到以下问题:透明度;对于处理敏感数据的适当保障;适当程度的数据保护;有效和实际的问责方案和机制;除符合国际法的某些情况外,数据主体对访问和删除其在人工智能系统中个人数据的权利和能力的充分享有;数据用于商业目的(例如精准定向广告)或跨境转移时完全符合数据保护法的适度保护;切实有效的独立监督,作为使个人可以掌控其个人数据、尊重数据主权并促进国际信息自由流通(包括数据获取)之惠益的数据治理机制的一部分。74.会员国应制定数据政策或等效框架,或者加强现有政策或框架,以确保个人数据和敏感数据的充分安全,这类数据一旦泄露,可能会给个人造成特殊损害、伤害或困难。相关实例包括:与犯罪、刑事诉讼、定罪以及相关安全措施有关的数据;生物识别、基因和健康数据;与种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或任何其他特征有关的个人数据。75.会员国应促进开放数据。在这方面,会员国应考虑审查其政策和监管框架,包括关于信息获取和政务公开的政策和监管框架,以便反映出人工智能特有的要求,并考虑促进相关机制,例如为公共资金资助或公有的数据和源代码以及数据信托建立开放式存储库,以支持安全、公平、合法与合乎伦理的数据分享等。76.会员国应推动和促进将优质和稳健的数据集用于训练、开发和使用人工智能系统,并在监督数据集的收集和使用方面保持警惕。这包括在可能和可行的情况下投资建立黄金标准数据集,包括开放、可信、多样化、建立在有效的法律基础上并且按法律要求征得数据主体同意的数据集。应鼓励制定数据集标注标准,包括按性别和其他标准分列数据,以便于确定数据集的收集方式及其特性。77.按照联合国秘书长数字合作高级别小组报告的建议,会员国应在联合国和教科文组织的支持下,酌情采用数字共享方式处理数据,提高工具、数据集和数据托管系统接口的互操作性,鼓励私营公司酌情与所有利益攸关方共享其收集的数据,以促进研究、创新和公共利益。会员国还应促进公共和私营部门建立协作平台,在可信和安全的数据空间内共享优质数据。【政策领域4:发展与国际合作】78.会员国和跨国公司应优先考虑人工智能伦理,在相关国际、政府间和多利益攸关方论坛上讨论与人工智能有关的伦理问题。79.会员国应确保人工智能在教育、科学、文化、传播和信息、卫生保健、农业和食品供应、环境、自然资源和基础设施管理、经济规划和增长等发展领域的应用符合本建议书提出的价值观和原则。80.会员国应通过国际组织,努力为人工智能促进发展提供国际合作平台,包括提供专业知识、资金、数据、领域知识和基础设施,以及促进多利益攸关方之间的合作,以应对具有挑战性的发展问题,特别是针对中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。81.会员国应努力促进人工智能研究和创新方面的国际合作,包括可以提升中低收入国家和其他国家(包括最不发达国家、内陆发展中国家和小岛屿发展中国家)研究人员的参与度和领导作用的研究和创新中心及网络。82.会员国应通过吸收国际组织、研究机构和跨国公司参与,促进人工智能伦理研究,可以将这些研究作为公共和私营实体以合乎伦理的方式使用人工智能系统的基础,包括研究具体伦理框架在特定文化和背景下的适用性,以及根据这些框架开发技术上可行的解决方案的可能性。83.会员国应鼓励在人工智能领域开展国际合作与协作,以弥合地缘技术差距。应在充分尊重国际法的前提下,在会员国与其民众之间、公共和私营部门之间以及技术上最先进和最落后的国家之间,开展技术交流和磋商。【政策领域5:环境和生态系统】84.在人工智能系统的整个生命周期内,会员国和工商企业应评估对环境产生的直接和间接影响,包括但不限于其碳足迹、能源消耗以及为支持人工智能技术制造而开采原材料对环境造成的影响,并应减少人工智能系统和数据基础设施造成的环境影响。会员国应确保所有人工智能行为者遵守有关环境的法律、政策和惯例。85.会员国应在必要和适当时引入激励措施,确保开发并采用基于权利、合乎伦理、由人工智能驱动的解决方案抵御灾害风险;监测和保护环境与生态系统,并促进其再生;保护地球。这些人工智能系统应在其整个生命周期内让地方和土著社区参与,并应支持循环经济做法以及可持续的消费和生产模式。例如,在必要和适当时可将人工智能系统用于以下方面:(a)支持自然资源的保护、监测和管理。(b)支持与气候有关问题的预测、预防、控制和减缓。(c)支持更加高效和可持续的粮食生态系统。(d)支持可持续能源的加速获取和大规模采用。(e)促成并推动旨在促进可持续发展的可持续基础设施、可持续商业模式和可持续金融主流化。(f)检测污染物或预测污染程度,协助相关利益攸关方确定、规划并实施有针对性的干预措施,防止并减少污染及曝露风险。86.会员国在选择人工智能方法时,鉴于其中一些方法可能具有数据密集型或资源密集型特点以及对环境产生的不同影响,应确保人工智能行为者能够根据相称性原则,倾向于使用节约数据、能源和资源的人工智能方法。应制定要求,确保有适当证据表明一项人工智能应用程序将产生这种预期效果,或一项人工智能应用程序的附加保障措施可以为使用该应用程序的合理性提供支撑。假如做不到这一点,则必须遵循预防原则,而且在会对环境造成极其严重的负面影响的情况下,不得使用人工智能。【政策领域6:性别】87.会员国应确保数字技术和人工智能促进实现性别平等的潜能得到充分发挥,而且必须确保在人工智能系统生命周期的任何阶段,女童和妇女的人权和基本自由及其安全和人格不受侵犯。此外,伦理影响评估应包含横向性别平等视角。88.会员国应从公共预算中划拨专项资金,用于资助促进性别平等的计划,确保国家数字政策包含性别行动计划,并制定旨在支持女童和妇女的相关政策,例如劳动力教育政策,以确保她们不会被排除在人工智能驱动的数字经济之外。应考虑并落实专项投资,用于提供有针对性的计划和有性别针对性的语言,从而为女童和妇女参与科学、技术、工程和数学(STEM)领域,包括信息和通信技术(信通技术)学科,以及为她们的就业准备、就业能力、平等的职业发展和专业成长,提供更多机会。89.会员国应确保人工智能系统推动实现性别平等的潜能得到实现。会员国应确保这些技术不会加剧,而是消除模拟世界多个领域中已经存在的巨大性别差距。这些差距包括:性别工资差距;某些职业和活动中不平等的代表性;人工智能领域高级管理职位、董事会或研究团队中的代表性缺失;教育差距;数字和人工智能的获取、采用、使用和负担能力方面的差距;以及无偿工作和照料责任在社会中的不平等分配。90.会员国应确保性别陈规定型观念和歧视性偏见不会被移植入人工智能系统,而且还应对其加以鉴别和主动纠正。必须努力避免技术鸿沟对以下方面产生复合性负面影响:实现性别平等和避免暴力侵害,例如针对妇女和女童以及代表性不足群体的骚扰、欺凌和贩运,包括在线上领域。91.会员国应鼓励女性创业、参与并介入人工智能系统生命周期的各个阶段,具体办法是提供并促进经济和监管方面的激励措施以及其他激励措施和支持计划,制定目的是在学术界的人工智能研究方面实现性别均衡的参与、在数字和人工智能公司高级管理职位、董事会和研究团队中实现性别均衡的代表性的政策。会员国应确保(用于创新、研究和技术的)公共资金流向具有包容性和明确的性别代表性的计划和公司,并利用平权行动原则鼓励私人资金朝着类似方向流动。应制定并执行关于无骚扰环境的政策,同时鼓励传播关于如何在人工智能系统的整个生命周期内促进多样性的最佳做法。92.会员国应促进学术界和产业界人工智能研究领域的性别多样性,为女童和妇女进入该领域提供激励措施,建立机制消除人工智能研究界的性别陈规定型观念和骚扰行为,并鼓励学术界和私营实体分享关于如何提高性别多样性的最佳做法。93.教科文组织可以协助建立最佳做法资料库,鼓励女童、妇女和代表性不足的群体参与人工智能系统生命周期的各个阶段。【政策领域7:文化】94.鼓励会员国酌情将人工智能系统纳入物质、文献和非物质文化遗产(包括濒危语言以及土著语言和知识)的保护、丰富、理解、推广、管理和获取工作,具体办法包括酌情出台或更新与在这些领域应用人工智能系统有关的教育计划,以及确保采用针对机构和公众的参与式方法。95.鼓励会员国审查并应对人工智能系统产生的文化影响,特别是自动翻译和语音助手等自然语言处理(NLP)应用程序给人类语言和表达的细微差别带来的影响。此类评估应为设计和实施相关战略提供参考,通过弥合文化差距、增进人类理解以及消除因减少使用自然语言等因素造成的负面影响,最大限度地发挥人工智能系统的惠益。减少使用自然语言可能导致濒危语言、地方方言以及与人类语言和表达形式有关的语音和文化差异的消失。96.随着人工智能技术被用于创造、生产、推广、传播和消费多种文化产品和服务,会员国应促进针对艺术家和创意从业人员的人工智能教育和数字培训,以评估人工智能技术在其专业领域的适用性,并推动设计和应用适当的人工智能技术,同时铭记保护文化遗产、多样性和艺术自由的重要性。97.会员国应促进当地文化产业和文化领域的中小企业对于人工智能工具的认识和评价,避免文化市场集中化的风险。98.会员国应吸收技术公司和其他利益攸关方参与进来,促进文化表现形式的多样化供应和多元化获取,特别要确保算法建议可以提高本地内容的知名度和可见性。99.会员国应促进在人工智能和知识产权的交汇点上开展新的研究,例如确定是否或如何对通过人工智能技术创作的作品给予知识产权保护。会员国还应评估人工智能技术如何影响作品被用于研究、开发、培训或实施人工智能应用程序的知识产权所有者的权利或利益。100.会员国应鼓励国家级博物馆、美术馆、图书馆和档案馆使用人工智能系统,以突出其藏品,强化其图书馆、数据库和知识库,并允许用户访问。【政策领域8:教育和研究】101.会员国应与国际组织、教育机构、私营实体和非政府实体合作,在各个层面向所有国家的公众提供充分的人工智能素养教育,以增强人们的权能,减少因广泛采用人工智能系统而造成的数字鸿沟和数字获取方面的不平等。102.会员国应促进人工智能教育“必备技能”的掌握,例如基本读写、计算、编码和数字技能、媒体与信息素养、批判性思维和创意思维、团队合作、沟通、社会情感技能和人工智能伦理技能,特别是在相关技能教育存在明显差距的国家及国内地区或区域。103.会员国应促进关于人工智能发展的一般性宣传计划,其中包括数据、人工智能技术带来的机会和挑战、人工智能系统对人权(包括儿童权利)的影响及其意义。这些计划对于非技术群体和技术群体来说都应简明易懂。104.会员国应鼓励开展关于以负责任和合乎伦理的方式将人工智能技术应用于教学、教师培训和电子学习等方面的研究活动,以增加机会,减轻这一领域的挑战和风险。在开展这些研究活动的同时,应充分评估教育质量以及人工智能技术的应用对于学生和教师的影响。会员国还应确保人工智能技术可以增强师生的权能和体验,同时铭记关系和社交方面以及传统教育形式的价值对于师生关系以及学生之间的关系至关重要,在讨论将人工智能技术应用于教育时应考虑到这一点。当涉及到监测、评估能力或预测学习者的行为时,用于学习的人工智能系统应符合严格的要求。人工智能应依照相关的个人数据保护标准支持学习过程,既不降低认知能力,也不提取敏感信息。在学习者与人工智能系统的互动过程中收集到的为获取知识而提交的数据,不得被滥用、挪用或用于犯罪,包括用于商业目的。105.会员国应提升女童和妇女、不同族裔和文化、残障人士、边缘化和弱势群体或处境脆弱群体、少数群体以及没能充分得益于数字包容的所有人在各级人工智能教育计划中的参与度和领导作用,监测并与其他国家分享这方面的最佳做法。106.会员国应根据本国教育计划和传统,为各级教育开发人工智能伦理课程,促进人工智能技术技能教育与人工智能教育的人文、伦理和社会方面的交叉协作。应以当地语言(包括土著语言)开发人工智能伦理教育的在线课程和数字资源,并考虑到环境多样性,特别要确保采用残障人士可以使用的格式。107.会员国应促进并支持人工智能研究,特别是人工智能伦理问题研究,具体办法包括投资于此类研究或制定激励措施推动公共和私营部门投资于这一领域等,同时承认此类研究可极大地推动人工智能技术的进一步发展和完善,以促进落实国际法和本建议书中提出的价值观和原则。会员国还应公开推广以合乎伦理的方式开发人工智能的研究人员和公司的最佳做法,并与之合作。108.会员国应确保人工智能研究人员接受过研究伦理培训,并要求他们将伦理考量纳入设计、产品和出版物中,特别是在分析其使用的数据集、数据集的标注方法以及可能投入应用的成果的质量和范围方面。109.会员国应鼓励私营公司为科学界获取其数据用于研究提供便利,特别是在中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。这种获取应遵守相关隐私和数据保护标准。110.为确保对人工智能研究进行批判性评估并适当监测可能出现的滥用或负面影响,会员国应确保人工智能技术今后的任何发展都应建立在严谨和独立的科学研究基础上,并吸收除科学、技术、工程和数学(STEM)之外的其他学科,例如文化研究、教育、伦理学、国际关系、法律、语言学、哲学、政治学、社会学和心理学等,促进开展跨学科的人工智能研究。111.认识到人工智能技术为助力推进科学知识和实践提供了大好机会,特别是在以往采用模型驱动方法的学科中,会员国应鼓励科学界认识到使用人工智能的惠益、不足和风险;这包括努力确保通过数据驱动的方法、模型和处理方式得出的结论完善可靠。此外,会员国应欢迎并支持科学界在为政策建言献策和促进人们认识到人工智能技术的优缺点方面发挥作用。【政策领域9:传播和信息】112.会员国应利用人工智能系统改善信息和知识的获取。这可包括向研究人员、学术界、记者、公众和开发人员提供支持,以加强表达自由、学术和科学自由、信息获取,加大主动披露官方数据和信息的力度。113.在自动内容生成、审核和策管方面,会员国应确保人工智能行为者尊重并促进表达自由和信息获取自由。适当的框架,包括监管,应让线上通信和信息运营商具有透明度,并确保用户能够获取多样化的观点,以及迅速告知用户为何对内容进行删除或其他处理的相关程序和让用户能够寻求补救的申诉机制。114.会员国应投资于并促进数字以及媒体与信息素养技能,加强理解人工智能系统的使用和影响所需的批判性思维和能力,从而减少和打击虚假信息、错误信息和仇恨言论。此种努力应包括加强对推荐系统的积极和潜在有害影响的了解和评估。115.会员国应为媒体创造有利的环境,使媒体有权利和资源切实有效地报道人工智能系统的利弊,并鼓励媒体在其业务中以合乎伦理的方式使用人工智能系统。【政策领域10:经济和劳动】116.会员国应评估并处理人工智能系统对所有国家劳动力市场的冲击及其对教育要求的影响,同时特别关注经济属于劳动密集型的国家。这可以包括在各级教育中引入更广泛的跨学科“核心”技能,为当前的劳动者和年轻世代提供可以在飞速变化的市场中找到工作的公平机会,并确保他们对于人工智能系统的伦理问题有所认识。除了传授专业技术技能和低技能任务知识之外,还应教授“学会如何学习”、沟通、批判性思维、团队合作、同理心以及在不同领域之间灵活运用知识的能力等技能。关键是要在有高需求的技能方面保持透明度,并围绕这些技能更新学校课程。117.会员国应支持政府、学术机构、职业教育与培训机构、产业界、劳工组织和民间社会之间的合作协议,以弥合技能要求方面的差距,让培训计划和战略与未来工作的影响和包括中小企业在内的产业界的需求保持一致。应促进以项目为基础的人工智能教学和学习方法,以便公共机构、私营公司、大学和研究中心之间能够建立伙伴关系118.会员国应与私营公司、民间组织和其他利益攸关方(包括劳动者和工会)合作,确保高风险员工可以实现公平转型。这包括制定技能提升计划和技能重塑计划,建立在过渡期内保留员工的有效机制,以及为无法得到再培训的员工探索尝试“安全网”计划。会员国应制定并实施计划,以研究和应对已确定的各项挑战,其中可能包括技能提升和技能重塑、加强社会保障、主动的行业政策和干预措施、税收优惠、新的税收形式等。会员国应确保有足够的公共资金来支持这些计划。应审慎审查并在必要时修改税制等相关法规,消解基于人工智能的自动化造成的失业后果。119.会员国应鼓励并支持研究人员分析人工智能系统对于当地劳动环境的影响,以预测未来的趋势和挑战。这些研究应采用跨学科方法,调查人工智能系统对经济、社会和地域因素、人机互动和人际关系产生的影响,以便就技能重塑和重新部署的最佳做法提出建议。120.会员国应采取适当措施,确保竞争性市场和消费者保护,同时考虑可在国家、地区和国际各级采取何种措施和机制来防止在人工智能系统的整个生命周期内滥用与人工智能系统有关的市场支配地位,包括垄断,无论是数据、研究、技术还是市场垄断。会员国应防止由此造成的不平等,评估相关市场,并促进竞争性市场。应适当考虑中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家,这些国家由于缺乏基础设施、人力资源能力和规章制度等要素,面临滥用市场支配地位行为的风险更大,也更容易因之受到影响。在已制定或通过人工智能伦理标准的国家从事人工智能系统开发的人工智能行为者,在出口这些产品以及在可能没有此类标准的国家开发或应用其人工智能系统时,应遵守这些标准,并遵守适用的国际法以及这些国家的国内立法、标准和惯例。【政策领域11:健康和社会福祉】121.会员国应努力利用有效的人工智能系统来改善人类健康并保护生命权,包括减少疾病的爆发,同时建立并维护国际团结,以应对全球健康风险和不确定性,并确保在卫生保健领域采用人工智能系统的做法符合国际法及其人权法义务。会员国应确保参与卫生保健人工智能系统的行为者会考虑到患者与家属的关系以及患者与医护人员关系的重要性。122.会员国应确保与健康、特别是精神健康有关的人工智能系统的开发和部署适当关注儿童和青年,并受到监管,使其做到安全、有效、高效、经过科学和医学证明并能促进循证创新和医学进步。此外,在数字健康干预的相关领域,大力鼓励会员国主动让患者及其代表参与系统开发的所有相关步骤。123.会员国应特别注意通过以下方式规范人工智能应用程序中用于卫生保健的预测、检测和治疗方案:(a)确保监督,以尽可能减少和减轻偏见;(b)在开发算法时,确保在所有相关阶段将专业人员、患者、护理人员或服务用户作为“领域专家”纳入团队;(c)适当注意因可能需要医学监测而产生的隐私问题,并确保所有相关的国家和国际数据保护要求得到满足;(d)确保建立有效机制,让被分析的数据主体了解对其个人数据的使用和分析并给予知情同意,同时又不妨碍他们获取卫生保健服务;(e)确保人工护理以及最终的诊断和治疗决定一律由人类作出,同时肯定人工智能系统也可以协助人类工作;(f)必要时确保在投入临床使用之前由伦理研究委员会对人工智能系统进行审查。124.会员国应研究人工智能系统对于心理健康的潜在危害所产生的影响及如何加以调控的问题,例如深度抑郁、焦虑、社会隔离、成瘾、贩运、激进化和误导等。125.会员国应在研究的基础上,针对机器人的未来发展,制定关于人机互动及其对人际关系所产生影响的准则,并特别关注人类身心健康。尤其应关注应用于卫生保健以及老年人和残障人士护理的机器人、应用于教育的机器人、儿童用机器人、玩具机器人、聊天机器人以及儿童和成人的陪伴机器人的使用问题。此外,应利用人工智能技术的协助来提高机器人的安全性,增进其符合人体工程学的使用,包括在人机工作环境中。应特别注意到利用人工智能操控和滥用人类认知偏差的可能性。126.会员国应确保人机互动遵守适用于任何其他人工智能系统的相同价值观和原则,包括人权和基本自由、促进多样性和保护弱势群体或处境脆弱群体。应考虑与人工智能驱动的神经技术系统和脑机接口有关的伦理问题,以维护人的尊严和自主权。127.会员国应确保用户能够轻松识别与自己互动的对象是生物,还是模仿人类或动物特征的人工智能系统,并且能够有效拒绝此类互动和要求人工介入。128.会员国应实施政策,提高人们对于人工智能技术以及能够识别和模仿人类情绪的技术拟人化的认识,包括在提及这些技术时所使用的语言,并评估这种拟人化的表现形式、伦理影响和可能存在的局限性,特别是在人机互动的情况下和涉及到儿童时。129.会员国应鼓励并促进关于人与人工智能系统长期互动所产生影响的合作研究,特别注意这些系统对儿童和青年的心理和认知可能产生的影响。在开展此类研究时,应采用多种规范、原则、协议、学科方法,评估行为和习惯的改变,并审慎评估下游的文化和社会影响。此外,会员国应鼓励研究人工智能技术对于卫生系统的业绩和卫生结果产生的影响。130.会员国和所有利益攸关方应建立机制,让儿童和青年切实参与到关于人工智能系统对其生活和未来所产生影响的对话、辩论和决策中。五、监测和评估131.会员国应根据本国具体国情、治理结构和宪法规定,采用定量和定性相结合的方法,以可信和透明的方式监测和评估与人工智能伦理问题有关的政策、计划和机制。为支持会员国,教科文组织可以从以下方面作出贡献:(a)制定以严谨的科学研究为基础且以国际人权法为根据的教科文组织人工智能技术伦理影响评估(EIA)方法,关于在人工智能系统生命周期各个阶段实施该方法的指南,以及用于支持会员国对政府官员、政策制定者和其他相关人工智能行为者进行伦理影响评估方法培训的能力建设材料;(b)制定教科文组织准备状态评估方法,协助会员国确定其准备进程各个方面在特定时刻的所处状态;(c)制定教科文组织关于在事先和事后对照既定目标评估人工智能伦理政策和激励政策效力和效率的方法;(d)加强关于人工智能伦理政策的基于研究和证据的分析和报告;(e)收集和传播关于人工智能伦理政策的进展、创新、研究报告、科学出版物、数据和统计资料,包括通过现有举措,以支持最佳做法分享和相互学习,推动实施本建议书。132.监测和评估进程应确保所有利益攸关方的广泛参与,包括但不限于弱势群体或处境脆弱群体。应确保社会、文化和性别多样性,以期改善学习过程,加强调查结果、决策、透明度和成果问责制之间的联系。133.为促进与人工智能伦理有关的最佳政策和做法,应制定适当的工具和指标,以便根据商定的标准、优先事项和具体目标,包括关于处境不利者、边缘化群体和弱势群体或处境脆弱群体的具体目标,评估此类政策和做法的效力和效率,以及人工智能系统在个人和社会层面产生的影响。人工智能系统及相关人工智能伦理政策和做法的影响监测和评估应以与有关风险相称的系统方法持续开展。这项工作应以国际商定的框架为基础,涉及对于私营和公共机构、提供方和计划的评估,包括自我评估,以及开展跟踪研究和制定一系列指标。数据收集和处理工作应遵守国际法、关于数据保护和数据隐私的国家立法以及本建议书概述的价值观和原则。134.尤其是,会员国不妨考虑可行的监测和评估机制,例如:伦理问题委员会、人工智能伦理问题观察站、记录符合人权与合乎伦理的人工智能系统发展情况或在教科文组织各职能领域通过恪守伦理原则为现有举措作出贡献的资料库、经验分享机制、人工智能监管沙箱和面向所有人工智能行为者的评估指南,以评估会员国对于本文件所述政策建议的遵守情况。六、本建议书的使用和推广135.会员国和本建议书确定的所有其他利益攸关方应尊重、促进和保护本建议书提出的人工智能伦理价值观、原则和标准,并应采取一切可行步骤,落实本建议书的政策建议。136.会员国应与在本建议书的范围和目标范畴内开展活动的所有相关国家和国际政府组织、非政府组织、跨国公司和科学组织合作,努力扩大并充实围绕本建议书采取的行动。制定教科文组织伦理影响评估方法和建立国家人工智能伦理委员会,可以作为这方面的重要手段。七、本建议书的宣传137.教科文组织是负责宣传和传播本建议书的主要联合国机构,因此将与其他相关联合国实体合作开展工作,同时尊重它们的任务授权并避免工作重复。138.教科文组织,包括其世界科学知识与技术伦理委员会(COMEST)、国际生物伦理委员会(IBC)和政府间生物伦理委员会(IGBC)等机构,还将与其他国际、地区和分地区政府组织和非政府组织开展合作。139.尽管在教科文组织范围内,促进和保护任务属于各国政府和政府间机构的职权范围,但民间社会将是倡导公共部门利益的重要行为者,因此教科文组织需要确保和促进其合法性。八、最后条款140.应将本建议书作为一个整体来理解,各项基本价值观和原则应被视为相互补充、相互关联。141.本建议书中的任何内容既不得解释为取代、改变或以其他方式损害各国根据国际法所负义务或所享权利,也不得解释为允许任何国家、其他政治、经济或社会行为者、群体或个人参与或从事任何有悖人权、基本自由、人的尊严以及对生物和非生物的环境与生态系统所抱之关切的活动或行为。END-学会简介-SCAFTProfile四川省金融科技学会是经四川省民政厅批准,在四川省地方金融监督管理局的指导下,联合全球金融科技领域的精尖人才和优质企业成立的一揽子综合金融科技服务平台,是四川省内金融科技领域唯一一家省级行业组织和研究机构。学会致力于打造“政产学研媒”融合平台,推动企业把区块链、人工智能、大数据、云计算、物联网等新型金融科技应用到各类金融产品创新中,助力成渝双城经济圈建设,打造西部金融科技发展高地。学会作为四川金融科技发展的引领者,为企业提供多维度精准服务支持:1.充分利用平台优势,匹配企业发展所需资源,发挥“政、产、学、研、媒”融合一体功能;2.提供资本对接,顶层设计以及政策宣贯沟通等支持;3.为金融科技企业提供业务撮合、技术升级迭代、国内外市场拓展以及学术研究成果落地转化的支持;4.从事相关学术研究活动;举办行业相关的各类培训活动,开展评优评级等工作;5.举办多层次、多类型活动论坛,例如:行业大型峰会、政产学研媒融合“蜀融汇”、产业洞察“星慧聚”、商机对接“商洽会”、专题闭门研讨会以及“走进高校”系列主题讲座等活动;6.拥有国内外金融科技领域强大、前沿、专业的智库专家团队。C.Mohan学会区块链专委会首席科学家、美国工程院院士、IBMAlmaden研究中心首席专家RameshJain学会人工智能专委会首席科学家、美国加州大学教授、国际计算机协会ACM以及美国人工智能协会AAAI会士JulianGordon超级账本亚太区副总裁、联盟链技术发展先导者联系人:钟吉锴电话:13982167312邮箱:scaft@scaft.cnArticlesRecommended文章推荐会长四川省金融科技学会SichuanAssociationofFintech-官方网站-特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端中国人工智能的伦理原则及其治理技术发展
[1] NationalGovernanceCommitteefortheNewGenerationArtificialIntelligence.Governanceprinciplesforthenewgenerationartificialintelligence—developingresponsibleartificialintelligence[Internet].Beijing:ChinaDaily;c1995–2019[updated2019Jun17;cited2019Dec18].Availablefrom:https://www.chinadaily.com.cn/a/201906/17/WS5d07486ba3103dbf14328ab7.html?from=timeline&isappinstalled=0.链接1
[2] BeijingAIprinciples[Internet].Beijing:BeijingAcademyofArtificialIntelligence;c2019[updated2019May28;cited2019Dec18].Availablefrom:https://www.baai.ac.cn/blog/beijing-ai-principles.链接1
[3] ZengY,LuE,HuangfuC.Linkingartificialintelligenceprinciples.2018.arXiv:1812.04814.
[4] YangQ,LiuY,ChenT,TongY.Federatedmachinelearning:conceptandapplications.ACMTransIntellSystTechnol2019;10(2):12.链接1
[5] Guideforarchitecturalframeworkandapplicationoffederatedmachinelearning[Internet].NewYork:IEEEP3652.1FederatedMachineLearningWorkingGroup;c2019[cited2019Dec18].Availablefrom:https://sagroups.ieee.org/3652-1/.链接1
[6] XiaoC,LiB,ZhuJ,HeW,LiuM,SongD.Generatingadversarialexampleswithadversarialnetworks.2018.arXiv:1801.02610.
[7] LiuA,LiuX,FanJ,MaY,ZhangA,XieH,etal.Perceptual-sensitiveGANforgeneratingadversarialpatches.In:Proceedingsofthe33rdAAAIConferenceonArtificialIntelligence;2019Jan27–Feb1;Honolulu,HI,USA;2019.
[8] YanZ,GuoY,ZhangC.Deepdefense:trainingDNNswithimprovedadversarialrobustness.2018.arXiv:1803.00404v3.
[9] PangT,DuC,DongY,ZhuJ.Towardsrobustdetectionofadversarialexamples.2018.arXiv:1706.00633v4.
[10] LingX,JiS,ZouJ,WangJ,WuC,LiB,etal.DEEPSEC:auniformplatformforsecurityanalysisofdeeplearningmodel.In:Proceedingsofthe40thIEEESymposiumonSecurityandPrivacy;2019May20–22;SanFrancisco,CA,USA;2019.
[11] PulinaL,TacchellaA.ChallengingSMTsolverstoverifyneuralnetworks.AICommun2012;25(2):117–35.链接1
[12] KatzG,BarrettC,DillDL,JulianK,KochenderferMJ.Reluplex:anefficientSMTsolverforverifyingdeepneuralnetworks.In:ProceedingsoftheInternationalConferenceonComputerAidedVerification;2017Jul24–28;Heidelberg,Germany;2017.p.97–117.
[13] GehrT,MirmanM,Drachsler-CohenD,TsankovP,ChaudhuriS,VechevM.AI2:safetyandrobustnesscertificationofneuralnetworkswithabstractinterpretation.In:Proceedingsofthe2018IEEESymposiumonSecurityandPrivacy;2018May20–24;SanFrancisco,CA,USA;2018.
[14] SinghG,GehrT,MirmanM,PüschelM,VechevM.Fastandeffectiverobustnesscertification.In:ProceedingsoftheAdvancesinNeuralInformationProcessingSystems31;2018Dec3–8;Montreal,QC,Canada;2018.p.10802–13.
[15] LinW,YangZ,ChenX,ZhaoQ,LiX,LiuZ,etal.Robustnessverificationofclassificationdeepneuralnetworksvialinearprogramming.In:ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition;2019Jun16–20;LongBeach,CA,USA;2019.p.11418–27.
[16] YangP,LiuJ,LiJ,ChenL,HuangX.Analyzingdeepneuralnetworkswithsymbolicpropagation:towardshigherprecisionandfasterverification.2019.arXiv:1902.09866.
[17] RibeiroMT,SinghS,GuestrinC.‘‘WhyshouldItrustyou?”:explainingthepredictionsofanyclassifier.In:Proceedingsofthe22ndACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining;2016Aug13–17;SanFrancisco,CA,USA;2016.p.1135–44.
[18] ZhangQ,YangY,MaH,WuYN.InterpretingCNNsviadecisiontrees.In:ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition;2019Jun16–20;LongBeach,CA,USA;2019.p.6261–70.
[19] LiuS,WangX,LiuM,ZhuJ.Towardsbetteranalysisofmachinelearningmodels:avisualanalyticsperspective.VisualInf2017;1(1):48–56.链接1
[20] MaS,AaferY,XuZ,LeeWC,ZhaiJ,LiuY,etal.LAMP:dataprovenanceforgraphbasedmachinelearningalgorithmsthroughderivativecomputation.In:Proceedingsofthe201711thJointMeetingonFoundationsofSoftwareEngineering;2017Sept4–8;Paderborn,Germany;2017.p.786–97.
[21] XuanX,PengB,DongJ,WangW.OnthegeneralizationofGANimageforensics.2019.arXiv:1902.11153.
[22] GajaneP,PechenizkiyM.Onformalizingfairnessinpredictionwithmachinelearning.2017.arXIv:1710.03184.
[23] KusnerMJ,LoftusJ,RussellC,SilvaR.Counterfactualfairness.2017.arXiv:1703.06856.
[24] BolukbasiT,ChangKW,ZouJ,SaligramaV,KalaiA.Manistocomputerprogrammeraswomanistohomemaker?Debiasingwordembeddings.2016.arXiv:1607.06520.
[25] WengP.Fairnessinreinforcementlearning.2019.arXiv:1907.10323.
[26] BellamyRKE,DeyK,HindM,HoffmanSC,HoudeS,KannanK,etal.AIfairness360:anextensibletoolkitfordetecting,understanding,andmitigatingunwantedalgorithmicbias.2018.arXiv:1810.01943.
[27] High-LevelExpertGrouponAI.EthicsguidelinesfortrustworthyAI[Internet].Brussels:EuropeanCommission;2019Apr8[cited2019Dec18].Availablefrom:https://ec.europa.eu/digital-single-market/en/news/ethics-guidelinestrustworthy-ai.链接1
[28] TrumpDJ.ExecutiveorderonmaintainingAmericanleadershipinartificialintelligence[Internet].Washington,DC:TheWhiteHouse;2019Feb11[cited2019Dec18].Availablefrom:https://www.whitehouse.gov/presidential-actions/executive-order-maintaining-american-leadership-artificialintelligence/.链接1
[29] TencentAILab.Technologicalethicsatintelligentera—reshapetrustworthinessindigitalsociety[Internet].Beijing:TencentResearchInstitute;2019Jul8[cited2019Dec18].Availablefrom:https://tisi.org/10890.Chinese.链接1
[30] MeetthePartners[Internet].SanFrancisco:PartnershiponAI;c2016–18[cited2019Dec18].Availablefrom:https://www.partnershiponai.org/partners/.链接1
[31] LiQ,WenZ,WuZ,HuS,WangN,HeB.Federatedlearningsystems:vision,hypeandrealityfordataprivacyandprotection.2019.arXiv:1907.09693.
[32] SzegedyC,ZarembaW,SutskeverI,BrunaJ,ErhanD,GoodfellowI,etal.Intriguingpropertiesofneuralnetworks.2013.arXiv:1312.6199.
[33] KurakinA,GoodfellowI,BengioS,DongY,LiaoF,LiangM.Adversarialattacksanddefencescompetition.In:EscaleraS,WeimerM,editors.TheNIPS’17competition:buildingintelligentsystems.Cham:Springer;2018.p.195–231.链接1
[34] CaoY,XiaoC,YangD,FangJ,YangR,LiuM,etal.AdversarialobjectsagainstLiDAR-basedautonomousdrivingsystems.2019.arXiv:1907.05418.
[35] AryaV,BellamyRK,ChenPY,DhurandharA,HindM,HoffmanSC,etal.Oneexplanationdoesnotfitall:atoolkitandtaxonomyofAIexplainabilitytechniques.2019.arXiv:1909.03012.
[36] YuH,ShenZ,MiaoC,LeungC,LesserVR,YangQ.Buildingethicsintoartificialintelligence.In:Proceedingsofthe27thInternationalJointConferenceonArtificialIntelligence;2018Jul13–19;Stockholm,Sweden;2018.p.5527–33.链接1
[37] EverittT,KumarR,KrakovnaV,LeggS.ModelingAGIsafetyframeworkswithcausalinfluencediagrams.2019.arXiv:1906.08663.
[38] AwadE,DsouzaS,KimR,SchulzJ,HenrichJ,ShariffA,etal.Themoralmachineexperiment.Nature2018;563(7729):59–64.链接1
[39] ConitzerV,Sinnott-ArmstrongW,BorgJS,DengY,KramerM.Moraldecisionmakingframeworksforartificialintelligence.In:Proceedingsofthe31stAAAIConferenceonArtificialIntelligence;2017Feb4–10;SanFrancisco,CA,USA;2017.p.4831–5.
[40] KimR,Kleiman-WeinerM,AbeliukA,AwadE,DsouzaS,TenenbaumJB,etal.Acomputationalmodelofcommonsensemoraldecisionmaking.In:Proceedingsofthe2018AAAI/ACMConferenceonAI,Ethics,andSociety;2018Feb2–3;NewOrleans,LA,USA;2018.p.197–203.
[41] NationalArtificialIntelligenceStandardizationSteeringCommittee.Reportonartificialintelligenceethicalriskanalysis[Internet].[cited2019Dec18].Availablefrom:http://www.cesi.ac.cn/images/editor/20190425/20190425142632634001.pdf.Chinese.链接1
[42] CrawfordK,CaloR.ThereisablindspotinAIresearch.Nature2016;538(7625):311–3.链接1
李麒|人工智能伦理规范的初步探讨
原创李麒上海市法学会东方法学收录于话题#上海法学研究379个#核心期刊591个#法学647个#原创首发739个
李麒
北京理工大学珠海学院民商法学院教授
要目
一、前言
二、伦理规范的理论基础
三、人工智能的伦理规范
四、建立伦理监督委员会
结论与建议
2019年5月25日北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所等单位,共同发布《人工智能北京共识》,提出人工智能的研发、使用、治理应该遵循有益于人类命运共同体建构和社会发展的15条原则。
一、前言
人工智能研发应符合伦理的设计方法,尽可能公正,减少系统歧视与偏见,提高系统透明性,增加系统可解释度、可预测性,使系统可追溯、可核查、可问责等。2019年7月,中国国家新一代人工智能管理委员会发布《新一代人工智能管理原则》,提出尊重人的隐私、尊严、自治和重视权利,不应使用人工智能伤害人类。另一方面,人工智能的伦理价值在美国也有广泛的讨论,大型科技公司提出人工智能伙伴关系等概念。2017年谷歌公司放弃与美国国防部续约,原因是美国国防部要求该公司将先进的人工智能技术应用于军事用途。1983年成立的计算机专业人员社会责任组织(ComputerProfessionalforSocialResponsibility,CPSR)及联合国人权观察组织都主张禁止全自动武器的条约,例如自主选择轰炸目标的无人机等。人工智能伦理问题向来受到各界广泛关注,包括联合国发布的《关于机器人伦理的研究报告》、国际标准化组织IEEE发布的《合理伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》;由Hawking、ElonMusk等人推动的人工智能23条准则(或称阿西洛马人工智能原则);英国剑桥的存在风险研究中心(CSER)、牛津的人类未来研究所(FHI)、美国波士顿的未来生命研究院(FutureofLifeInstitute)。美国麻省理工学院媒体实验室(MITMediaLab)与哈佛大学伯克曼·克莱因互联网与社会研究中心(BerkmanKleinCenterforInternet&Society)合作推出的耗资2700万美元的AI伦理研究计划;加拿大蒙特利尔大学人工智能伦理小组发布的《负责地发展人工智能的蒙特利尔宣言》;等等。现代社会技术和法律时常处于紧张状态,虽然技术促进新的发明,但法律则趋向保守,基于社会道德或人类恐惧而禁止克隆就是一个例证。有人认为超级智能的发展,会因其优越性而超越人类,进而夺取道德评价的话语权,使人类失去道德尊严的主动权。这虽是对新兴科技发展的普遍忧虑,但法律不应成为科技创新的阻碍,因此2017年7月8日国务院制定《新一代人工智能发展规划》,提出制定促进人工智能发展的法律法规和伦理规范。工信部出台《促进新一代人工智能产业发展三年行动计划(2018—2020)》,教育部出台《高等学校人工智能创新行动计划》,中央全面深化改革委员会第七次会议审议通过《关于促进人工智能和实体经济深度融合的指导意见》。2020年7月27日,国家标准化管理委员会、中央网信办、国家发改委、科技部、工业和信息化部等五部委印发《国家新一代人工智能标准体系建设指南》,要求到2021年,明确人工智能标准化顶层设计,完成安全、伦理等重点标准的预研工作,2023年初步建立人工智能标准体系。上述文件均显示人工智能伦理发展受到高度重视。
以自动驾驶车辆的伦理规范设定为例,若以符合全体社会成员最大利益为原则,则会采取强制的伦理设定(mandatoryethicssetting,简称MES),而排除让每一个司机或乘客都选择个人化的伦理设定(personalethicssetting,简称PES),由于自动车驾驶涉及公共利益,片面尊重工具使用者的自主权,基于人类自利的本质,很可能导致公共安全与道德的双重危险,基于社会共同体的责任与价值利益考虑,强制伦理设定是比较妥适的作法。但是在具体设定算法时,如何避免算法偏见和歧视?若以功利主义为算法基础,为了拯救多数人,仅载有一名乘客的车辆有很大几率会成为事故撞击的目标;若采取最小化伤害原则的道德算法,德国制的自动驾驶车辆是否可能选择日本车为撞击对象,因为一般而言,日本车的防护钢板较薄弱,如何决定类似的伦理规范显然值得讨论。
二、伦理规范的理论基础
2018年世界人工智能大会发布的“上海倡议”提出建立与人工智能创新发展相适应的立法规范、法律体系、政策体系和伦理体系,制定技术设定阶段的法律规范,通过规则设定促进人工智能算法的公正、透明、安全,避免算法歧视,2019年中国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则—发展负责任的人工智能》特别强调此理念。人工智能的伦理规范非常重要,主要包括为智能机器人预设道德准则、设定人工智能技术研发及应用标准,建立人工智能产品本身的道德指引,以及规制科研人员的伦理规范。科学技术要解决的是“能不能”的实然问题,伦理学要解决的是“该不该”的应然问题,人工智能不仅是单纯的技术问题,也是哲学问题。以下提出几种典型案例的思考方式,部分案例来自1985年美国教授JJ.Thomson提出的电车难题(TheTrolleyProblem):
典型案例:
案例1:电车难题
假设某辆电车沿着既定路线前行,电车突然发生故障而无法操控,如果电车继续前行会碾毙在既定路线上工作的五位作业员,此时刚好有一位作业员A站立于轨道分转器旁边,目击了现场状况,A如果使用轨道分转器切换路线,可以让电车转入另一条轨道而拯救五位作业员的性命,然而在切换后的轨道上有一位作业员B正在工作,轨道切换后电车会将B碾毙,试问A是否应该作出转换轨道的决定。不选择转换轨道将导致五位作业员死亡,选择转换轨道会导致作业员B死亡,A如果选择后者,法律上是否可以主张紧急避险。
案例2:陆桥上的胖子
突然失去控制的电车持续前行,如果继续前行会碾毙在既定路线上工作的五位作业员,A与完全不知情的C正好走在陆桥上,C体型非常肥胖,如果A突然将C推落桥下,以C作为障碍物则刚好可以让电车停止(题目设定为牺牲C一定会使电车停止),因而救助五位作业员的性命。A是否应该推C下桥?
案例3:自动驾驶车辆的情况
在深不可测的溪谷上有一条非常狭窄细长的陆桥(只能单线双向通行),A搭乘自动驾驶车辆(A并未操作车辆)正在桥上行进,对向开来一辆大巴士(有乘客40人),大巴司机突然失去意识导致该车越过车道线,直接冲向搭乘A的自动驾驶车辆,此时如果A的车辆加速前进稍微擦撞大巴车的侧边,可以保护A的安全,但是大巴车会掉落山谷,车上40人均会死亡;如果A的车辆不加速,直接与大巴士正面相撞,则A死亡,大巴士不会掉落山谷,车上乘客均会获救,A所搭乘的自动驾驶车辆应该加速,还是不应该加速?
案例4:社会评价体系下的自动驾驶车辆
甲为大学教授,具有名校毕业的博士学位,认真工作,乐善好施、义务担任社会服务工作,服务人群曾受政府表扬,人工智能系统赋予的社会评价分数为95分;乙未接受良好教育,无业而四处游荡,曾因盗窃罪在监狱服刑,人工智能系统给予的社会评价分数是20分,某日乙不遵守十字路口交通标志,违规闯红灯穿越马路,甲所搭乘的自动驾驶汽车正准备通过该路口,此时因不明原因汽车刹车失灵,汽车正迅速向乙接近,人工智能系统立即作出判断,无论直接撞击乙或右转撞击路树都可以使车停下来,此时人工智能作出何种选择会符合正义的要求?
伦理规范的哲学理论与案例思考
伦理规范是划定个人行为与社会组织界限的一种方法,西方社会有两种主要的道德理论,一是边沁的功利主义理论,利益最大化作为道德标准,在以效用主义为基础的博弈论在人工智能中经常被用于理解个体与群体的相互作用,为算法的伦理分析提供基础。二是康德的义务道德论,道德动机是人类行为的准则,理性且具有自由意志的人是道德主体,能作出最终决策,人本身就是目的,任何人都不能将他人作为工具,或达成特定目的的方法或手段。问题在于此种绝对律令的观点,如何转换为人工智能的正确规则。温德尔·瓦拉赫、科林·艾伦认为机器人可以根据人类的普遍道德法则作出是非判断,具有理性能力。康德认为自主性是人类自我意识的根本条件,如果机器人可以超越人类控制,这种自主技术性的概念会令人感到不安,因为赋予人工智能自主性,代表人的自主性被替代,主客体的地位将发生变化。可能的解决方法是在人工智能设计之始,将一些伦理规则作为绝对律令,以代码的方式写入人工智能的程序中,例如机器绝对不能攻击人类,特别是老弱妇孺,植入规范性伦理程序就是康德道德律令的代表。
人工智能道德伦理的责任议题,包括人权伦理、责任伦理、道德地位伦理、代际理论、环境理论以及大数据伦理与隐私,以联合国宣言为基础,有人认为应将人类责任与机器人责任伦理的标准同等对待,主要包括正义与团结、相互尊重与合作、信任与容忍、基本人性准则等。建立在亚里士多德道德观念上的人工智能道德理念,是自下而上的理论体系,机器可以自主学习,而具有类似神经网络链接机制的机器人就有可能具备道德判断能力。
如果采取边沁的功利主义,应当追求“最大多数人的最大幸福”,案例1及案例2都会作出拯救5人的生命利益大于牺牲1人的生命利益的决定。案例3自动驾驶车辆不加速与大巴士直接相撞,才能拯救车上40位乘客的生命,A的生存机会势必被选择放弃,人工智能设计师必须预先设定“牺牲自驾车乘客”的程序模式,在这种情况下,是否还有人选择使用自动驾驶车辆?如果采取康德的道义责任论,无论在任何情况下,人的生命都不可以因为特定目的而被利用,则案例1及案例2都会作出不救助5个作业员的决定,因为生命的价值没有数量或高低的区别。在案例3的情况由于生命价值相等,自动车加速与否都会造成生命损失,程序设计师是否应该优先考虑使用者的安全,保护使用者(消费者)安全是否为产品制造或设计者的法律义务?
其次,针对案例4,若采取功利主义,AI的设计者应该会选择让汽车直接撞击乙,因为甲的社会评价分数90分远高于乙的20分;如果采取康德的道义责任论,人始终是目的,而不能成为达成特定目的的方法或手段,所以不能把人单纯当作客体对待,由于每一个人的生命价值相同,AI的设计者应当会让汽车右转撞树而导致甲死亡或受伤。由上可知,AI对于甲、乙生死的决定取决于工程师对于算法的设计。无论AI选择直接撞击或转向都会导致对人工智能数理逻辑算法的疑虑,直接撞击会造成阶级对立,加剧社会精英与普通民众的紧张关系;转向则会使无人驾驶汽车失去用户,因为每一次驾驶都类似俄罗斯赌盘,搭乘者可能会因突发事件而被牺牲,个人没有过错却必须成为被选择牺牲的对象。
案例3及案例4的自动驾驶车辆程序设计者必须面对一项难题,应当对人工智能输入何种价值选择标准,在更复杂的情形下,例如一方车辆的乘客只有5年的余命,另一方乘客有20年的余命,哪一辆车的安全应当优先考虑(事实设定为两辆车可以自动交换乘客信息)?又如果两车乘客的余命完全相同时,一方是高额纳税人,另一方是欠税大户,自动驾驶车辆的程序参数(parameter)又应该如何设计?
另一种观点认为,根据哲学上的双重效果原则(Doctrineofdoubleeffect),行为人虽然应该对于自己意图决定所产生的损害结果负责,但即使发生损害且能预见结果的发生,若损害不是根据有害意图的行动所造成,就不应该追究行为人的责任(前提是此行为是人道的、或至少是道德中立的、或不会为自己带来直接利益)。案例1中A转动换轨器时虽然预见B的死亡,但A的意图是为了拯救5个作业员的生命,因此B的死亡只是附随发生的结果;案例2中A的直接意图是将C推落桥下,C的死亡附随产生救助5名作业员的结果,根据双重效果原则,案例1可以被正当化,但案例2则不能被正当化。
人工智能的伦理规范必须保留人类的基本价值观。一般而言,人工智能采取的是工具理性表现方式,人类行为则具有价值理性的思维,将此种价值理性转化为精确的算法设计十分困难,而且不同的文化习俗、宗教信仰、社会公德自有不同的价值判断标准,人工智能面对价值体系如何选定价值体系,其本身虽是一个难点,但是在算法中嵌入公平、正义、良善等价值观的追求应该是正确的方向。具体的方法是将人的道德理性融入算法程序,研发“道德代码”以明确人工智能的道德主体责任,道德代码指程序员除了按科学方式编码外,同时在代码中融入道德感情,使编码在执行程序时具有道德价值判断功能,亦即编码本身应具备道德功能。人工智能的道德属性源于人类自身的道德认识,这种道德属性需要专家的技术设计,所以健全程序设计者的伦理体系与道德观是根本的问题。
三、人工智能的伦理规范
域外的人工智能伦理规范
1.欧洲
欧洲议会的法务委员会(JURLCommittee)于2015年1月召开关于机器人与AI进化的法律问题工作会议,同时设立专责工作小组,该委员会于2017年1月提出“关于机器人民事法规则的欧洲委员会建议”报告,认为欧洲应该设置管理机器人与伦理规则的专责机构并建立适用于欧洲全境的管理规则,长期而言,未来对于自律型的机器人可以讨论赋予电子人格的可能性。本报告提出广泛受到重视的五项伦理原则,内容包括自由、隐私、人性尊严、自己决定权等,对于机器人运用所造成的影响实施评估;人们拒绝使用人工智能,但仍会因人工智能对生活产生实质影响时,应当对于人工智能决策的各种可能性,寻求理论依据;AI的算法必须能还原为人类可以理解的型态或方式;强人工智能的逻辑程序决定程序,必须全程予以记录备案,不能存有黑箱的现象,确保“透明性原则”的落实。同时在附录部分(Annex),提出对人工智能工程师的伦理行为准则(CodeofEthicalConductforRoboticsEngineers),这个准则属于建议、指导的性质,没有强制性,对于人工智能工程师的具体行动方针包括
(1)善行(Beneficence):人工智能的行为必须符合人类利益。
(2)无害(Non-maleficence):无论在任何情况下,机器人都不能伤害人类。
(3)自主性(Autonomy):使用机器人所提供的人类信息,不能以强制方式取得,必须根据人类的自由意志作成决定。
(4)正义(Justice):特别是居家治疗,使用照护式机器人时应当给予公正的利益分配。
2017年6月德国交通部伦理委员会公布《自动和联网驾驶》报告,提出自动车驾驶的20条伦理规则,其核心内容包括保护个人优先于其他一切功利主义的考虑;当危险情况不能避免时,保护人类生命优先于其他法律利益,为了避免人员伤亡,在编程上允许对给动物或者财产造成损害;道德困境下的决策依赖于现实的具体情况,无法清楚地给予明确标准;处于无法避免事故发生的境况下,禁止以年龄、性别、生理或心理状况等人身特征进行歧视性决策,不得牺牲无关的他人。2016年4月德国政府通过法律,将“驾驶员”定义扩大到能够完全控制车辆的自动人工智能系统,同时提高无人驾驶的保险费与赔偿费。
为了避免算法歧视,我们应当有合理的AI设计,可以将人类社会的法律、道德等规范和价值嵌入AI系统,根据国际标准化组织IEEE提议,首先是规范和价值的发现,确定AI系统应当遵守哪些规范,在价值相互冲突时又应该如何抉择;其次是法律或道德规范能否转换为计算器代码写入AI系统,采取方法是自上而下地将规则写入系统,要求人工智能遵守规则,还是自下而上由机器自我学习价值与伦理规则,目前尚无定论;最后是对人工智能采取的价值和规范进行评估,从三方面加以评估,包括使用者评估、主管部门评估和行业组织评估。
2.日本
日本政府于2016年5月30日设置“关于人工智能与人类社会恳谈会”,经过6次讨论,于2017年3月24日提出正式报告,该报告提出人工智能的伦理论点:(1)随着人工智能技术不断进步,人工智能技术机器与人类关系可能会逐渐产生变化,对于未来新关系所形成伦理观的内容应事先设想规划;(2)应用人工智能技术所产生的服务,在作成决策的评价标准与处理优先次序时,仍会受到人类心智或行动的控制,此类决策如果受某些特定的人类感情、情绪或信念的制约,就会令一般人产生不安全感,特别是在我们没有察觉,一切决定都受程序操控的状况下,伦理规范的讨论显得更为重要;(3)运用人工智能技术会扩展人类在时空或身体领域的范围,但是应该注意人工智能与人类能力与情感方面的相互作用,适度加以调适;(4)对于与人工智能技术有关的行为或创新价值,应给予适当评价,而这种价值观要考虑社会接受程度,尽可能的采取多元化的观点。2017年7月日本总务省情报通信研究所在《2017报告书—关于推动AI网络化国际议题的讨论》报告书中提出《AI发展纲领》,提出伦理原则的内容是“开发者应当尊重人性尊严与个人自主,在开发与人类脑部或身体相连的AI系统时,应注意有关生命伦理的争议,并予以特别慎重的考虑。开发者参照技术的特性在可能的范围内,应努力排除包含AI系统学习数据在内,所形成的一切偏见和其他不当差别对待的措施。开发者应遵守国际人权法、国际人道法,随时注意AI系统是否有不符合人类价值的行为”。
3.美国
2016年5月美国奥巴马政府在白宫召开AI所带来利益风险的工作会议,会议结论,提出《对未来人工智能的准备》(PreparingfortheFutureofArtificialIntelligence),该报告提出面对未来人工智能的23点事项,其中也涉及AI伦理问题,所有的事项都可以提供美国联邦政府及各界参考,第16点是“联邦政府机关应当考虑如何确保人工智能的有效性与公平性”,第17点强调人工智能系统透明性的重要性。第18点要求在各级学校的重要课程中,例如人工智能、机器学习、计算器与数据科学等的科目,在安全性与隐私方面设计出与伦理规范有关的主题。第23点提及对全自动或半自动武器的相关政策要符合国际人道法的规定。报告结论认为随着人工智能的持续进步,如何确保人工智能的透明性与说明可能性显得十分重要,人工智能的理解过程与人类理性的思维间如何取得平衡也应受到重视。
4.民间组织
(1)电器和电子工程师协会IEEE(TheInstituteofElectricalandElectronicsEngineers)
IEEE是总部设在美国的电器工学、电子工学技术的学会,该学会是世界最大的技术者研究团体。IEEE于2016年4月通过《伦理因素的自动化系统设定的全球化倡议》(TheGlobalInitiativeforEthicalConsiderationsintheDesignofAutonomousSystems),认为在谋求伦理、法律和社会目标一致性的前提下,确有必要对于AI系统的设计方法予以研究,因而提出此项计划。2016年12月接着公布第1版《伦理指引—以人类福为的优先人工智能与自动系统》(EthicallyAlignedDesign-AVisionforPrioritizingHumanWellbeingwithArtificialintelligenceandautonomousSystem,Vision1forPublicDiscussion),〔2018年2月整理了来自全世界包含美国、欧洲、中南美洲在内的官方与民间专家约250人的意见后,公布了该指引的第2版。该版本共263页,大致分为下列主题:(1)一般原则;(2)自律智能系统价值观的内容;(3)伦理研究和设计的导入方法;(4)一般人工智能(AGI)与超人工智能(ASI)的安全性;(5)取得与使用个人信息的限制;(6)自主兵器系统的再规制;(7)经济与人道的问题;(8)法律;(9)人工智能对人类感情与情绪的影响;(10)政策;(11)自主智能系统的古典理论;(12)信息通讯技术(ICT)的复合实现(MR);(13)人类幸福(自主智能系统的应有目标)。作为总论部分的“一般原则”包括(1)如何确保AI不会侵害人权(2)就社会繁荣度的指标而言,AI可以带来人类的幸福?(3)如何确认AI设计者、制造者、所有者与运用者的责任?(4)如何确保AI的透明度?(5)如何获得利益最大、风险最小的AI技术。各论部分对于现有指引内容过于抽象提出检讨,对于指引内容尽可能的予以明确化,例如对于“自律智能系统价值观的内容”的主题,其价值观内容固然应当符合社会的期待,不能违反法律规定与现存文化,但就规范与价值观而言,每个人的举止行为、语言、文化、艺术品味等各有自己的主观判断,自主智能AI系统应当如何设定学习方式就成为难点。不同形式的自主智能系统应如何搭配特定的规范或价值观,事实上也难以决定。首先,只能从特定群体(community)着手,针对符合特定工作(task)的自主智能人工系统,尝试寻求出可以遵循的规范内容。对于“自主智能系统的古典理论”的主题,AI的开发的伦理议题,不能仅围绕着西方伦理(功利主义、义务论、道德伦理学等)讨论,对佛教、儒教、日本神道等其他领域也应当加以考虑。
(2)人工智能百年研究(OneHundredYearStudyonArtificialIntelligence)
该组织由斯坦福大学毕业生所创立,以今后100年AI长期发展为研究目标,判断人工智能对于社会有何种影响,每五年提出观察、分析报告的一项研究计划,其成果是2016年9月发表的《ArtificialIn-telligenceandLifein2030》研究报告,报告分为交通、居家服务机器人、健康照护、教育、低资源消耗共同体的实现、公共安全和保障、职场与雇用、娱乐等8个部分,从长期展望加以分析,特别是交通部分的自动驾驶汽车、无人机运用部分有较多的描述,在法政策方面则主要讨论隐私权、创新政策、民事责任、刑事责任、代理、资格、劳动、税、政治等问题。
(3)人工智能合作组织(PartnershiponArtificialIntelligencetoBenefitPeopleandSociety,Partner-shiponAI)
PartnershiponAI是2016年9月由Amazon、Google、DeepMind(Google)、Facebook、IBM、Microsoft等成员所设立,2017年Apple、OpenAI等新成员加入,日本Sony也希望加入,这是一个发展人工智能的世界企业联合组织。该组织提出主题支柱(ThematicPillars)重点有:①重视AI安全性(Safty-CriticalAI);②公平、透明而具可说明能性的AI(Fair,Transparent,andAccountable);③人们与AI系统的协调(Collab-orationBetweenPeopleandAISystems);④AI、劳动与经济(AILaborandtheEconomy);⑤AI社会的影响(SocialandSocietalInfluencesofAI);⑥AI和社会利益(AIandSocialGood);⑦特别提议(SpecialInitiatives)。针对AI研究与技术的信赖、国际习惯和尊重人权、说明可能性等重要问题,该组织提出8大信条(Tenets)供各界参考。
(4)生命未来研究机构(FutureLifeInstitute)
该组织简称FLI,2015年由Skype共同创始人JaanTallinn等人所创设,该组织的咨询委员会由太空探索技术公司SpaceX社的埃隆·马斯克(ElonMusk)、宇宙物理学家史蒂芬·霍金(StephenHawking)、演员摩根·费理曼(MorganFreeman)等14位人士组成。2017年1月在美国加州阿西洛马(Asilomar)以“人工智能对人类有何利益”为主题,同年2月公开发表阿西洛马AI原则(AsilomarAIPrinciples),该原则有23条,其中与伦理价值观有关的课题,整理如下:
四、建立伦理监督委员会
为处理人工智能伦理问题,德国成立数据伦理委员会,个别企业也设立道德指引的规则,鉴于人工智能使用数字化的风险,由国家制定法律作为规范固然重要。但企业自主规制与建立伦理委员会也是不可欠缺的机制,欧盟委员会欧洲科学与新技术伦理小组,提出尊重人性、自主性等伦理清单。本文介绍日本人工智能的伦理监督委员会,以供参考。
日本人工智能学会成立于1986年,学会的伦理委员会设立于2014年。2017年2月学会公布《人工智能学会伦理指针》,整理其具体内容提供参考:
结论与建议
探讨人工智能道德理论的法律论文数量很多,但能提出具体解决方案的有限,甚至有人认为人工智能设计者、使用者或法律规定的道德选择不在其讨论机器人道德范围内。本文认为这是一个必须面对的难题,根据“理论—规则”驱动进路,将特定群体认可的价值观和道德标准程序化为道德代码,嵌入智能系统,内置道德决策场景的指导性抉择标准。理论上伊曼纽尔·康德(ImmanuelKant)的道义论、约翰·密尔(JohnMill)的功利主义和约翰·罗尔斯(JohnRawls)的正义论都可以成为参考选项。
人类自由意志的问题,在哲学上争论甚久,波蓝尼悖论(Polany’sParadox)认为,“我们知道的可能比我们能说出来的更多,如同司机的技能不可能完全用驾校的驾驶汽车理论来替代”。人工智能以海量数据信息为基础,可以按照既定算法进行预测,但人类拥有自由意志,在面对突发状况时也许会采取出人意料的决策,因为人类大脑掌握的能力高于既定的知识,可以说人类的思维存在着某种不确定的点,人们不是按照既定程序做决策,而是根据自由意志下判断。否定人类有自由意志的观点则认为人类的所有感受没有所谓“自由意志”,一切只是哺乳动物及鸟类拥有的生化机制,用来快速运算生存和繁殖的几率,直观的感受其实只是一套生化演算的结果。无论采取自由意志或生化演算的观点,人工智能的设计者都应当在算法设计阶段做好价值嵌入的程序,融入包括绿色、伦理、守法、自由、关爱在内的“共同善”的价值。
本文前述案例所提及的复杂问题,人类本身至今亦未能有一致的“正确”判断标准,如何期待程序设计者能够为人工智能嵌入一套具备普世价值的判断标准?马克思·韦伯提出诸神之争的本质是现代社会中价值观念之间的冲突,道德规范属于“应然”领域的价值判断,科学无法解决价值判断问题,沟通协调与坦然面对是理智成熟的解决方式,此部分仍有待人类共同努力。所以现阶段人工智能伦理规范多集中于外在规制层面,强调多元伦理原则,至于伦理规范的实质内容,或许可从人本主义为思考起点,以人性尊严作为人工智能立法的价值基础,以人的基本安全为底线,建立人工智能和机器人应用的基本伦理架构,作为人工智能规范政策的最高指导原则。在法制层面制定人工智能发展法,授权人工智能专门监管机构,建立全流程监管体系,成立“数据伦理委员会”,强化数据信息与隐私权保护,也是一个可行的方案。
2017年7月8日国务院制定的《新一代人工智能发展规划》强调采取三步走的战略目标:到2020年,部分领域的人工智能伦理规范和政策法规初步建立;到2025年,初步建立人工智能法律规范、伦理规范和政策体系;2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。在技术层面,国家标准化管理委员会于2018年1月成立国家人工智能标准化总体组,已发布《人工智能伦理风险分析报告》,目前正研究人工智能术语、人工智能伦理风险评估等标准。2019年我国亦发布《人工智能北京共识》《新一代人工智能管理原则》等重要文件,本文建议持续参考国内外伦理规范资料,设计政府部门的全国性监管方式、制定人工智能道德准则、成立各级人工智能伦理委员会,从而使得我国的人工智能规范更加完善。
原标题:《李麒|人工智能伦理规范的初步探讨》
阅读原文
联合国教科文组织发布《人工智能伦理建议书》
编辑|蒲蒲近日,联合国教科文组织在法国巴黎发布了《人工智能伦理建议书》,这是全球首个针对人工智能伦理制定的规范框架。《人工智能伦理建议书》明确了规范人工智能技术的10大原则和11个行动领域,是迄今为止全世界在政府层面达成的最广泛的共识,是全球人工智能发展的共同纲领,并将为进一步形成人工智能有关的国际标准、国际法等提供强有力的参考。据悉,《人工智能伦理建议书》于2018年春季立项,由全球遴选的24人专家团撰写,经历了193个成员国之间超过100小时的多边谈判修订完成,于今年在联合国教科文组织第41届大会上获得通过。建议书给出了一个人工智能的定义:“将人工智能系统视为有能力以类似于智能行为的方式处理数据和信息的系统,通常包括推理、学习、感知、预测、规划或控制等方面。”宗旨和目的该建议书旨在让人工智能系统可以造福人类、个人、社会、环境和生态系统,同时防止危害。它还旨在促进和平利用人工智能系统。目的是在全球现有人工智能伦理框架之外,再提供一部全球公认的规范性文书,不仅注重阐明价值观和原则,而且着力于通过具体的政策建议切实落实这些价值观和原则,同时着重强调包容、性别平等以及环境和生态系统保护等问题。并强调人工智能有关的伦理问题复杂性,需要多方合作、共同承担责任。《人工智能伦理问题建议书》草案文本(注:已在联合国教科文组织第41届大会上获得会员国通过)序言联合国教育、科学及文化组织(教科文组织)大会于2021年11月9日至24日在巴黎召开第四十一届会议,认识到人工智能(AI)从正负两方面对社会、环境、生态系统和人类生活包括人类思想具有深刻而动态的影响,部分原因在于人工智能的使用以新的方式影响着人类的思维、互动和决策,并且波及到教育、人文科学、社会科学和自然科学、文化、传播和信息,忆及教科文组织根据《组织法》,力求通过教育、科学、文化以及传播和信息促进各国间之合作,对和平与安全作出贡献,以增进对正义、法治及所确认之世界人民均享人权与基本自由之普遍尊重,深信在此提出的建议书,作为以国际法为依据、采用全球方法制定且注重人的尊严和人权以及性别平等、社会和经济正义与发展、身心健康、多样性、互联性、包容性、环境和生态系统保护的准则性文书,可以引导人工智能技术向着负责任的方向发展,遵循《联合国宪章》的宗旨和原则,考虑到人工智能技术可以对人类大有助益并惠及所有国家,但也会引发根本性的伦理关切,例如:人工智能技术可能内嵌并加剧偏见,可能导致歧视、不平等、数字鸿沟和排斥,并对文化、社会和生物多样性构成威胁,造成社会或经济鸿沟;算法的工作方式和算法训练数据应具有透明度和可理解性;人工智能技术对于多方面的潜在影响,包括但不限于人的尊严、人权和基本自由、性别平等、民主、社会、经济、政治和文化进程、科学和工程实践、动物福利以及环境和生态系统,又认识到人工智能技术会加深世界各地国家内部和国家之间现有的鸿沟和不平等,必须维护正义、信任和公平,以便在公平获取人工智能技术、享受这些技术带来的惠益和避免受其负面影响方面不让任何国家和任何人掉队,同时认识到各国国情不同,并尊重一部分人不参与所有技术发展的意愿,意识到所有国家都正值信息和通信技术及人工智能技术使用的加速期,对于媒体与信息素养的需求日益增长,且数字经济带来了重大的社会、经济和环境挑战以及惠益共享的机会,对于中低收入国家(LMIC)——包括但不限于最不发达国家(LDC)、内陆发展中国家(LLDC)和小岛屿发展中国家(SIDS)而言尤为如此,需要承认、保护和促进本土文化、价值观和知识,以发展可持续的数字经济,还认识到人工智能技术具备有益于环境和生态系统的潜能,要实现这些惠益,不应忽视而是要去应对其对环境和生态系统的潜在危害和负面影响,注意到应对风险和伦理关切的努力不应妨碍创新和发展,而是应提供新的机会,激励合乎伦理的研究和创新,使人工智能技术立足于人权和基本自由、价值观和原则以及关于道义和伦理的思考,又忆及教科文组织大会在2019年11月第四十届会议上通过了第40C/37号决议,授权总干事“以建议书的形式编制一份关于人工智能伦理问题的国际准则性文书”,提交2021年大会第四十一届会议,认识到人工智能技术的发展需要相应提高数据、媒体与信息素养,并增加获取独立、多元、可信信息来源的机会,包括努力减少错误信息、虚假信息和仇恨言论的风险以及滥用个人数据造成的伤害,认为关于人工智能技术及其社会影响的规范框架应建立在共识和共同目标的基础上,以国际和国家法律框架、人权和基本自由、伦理、获取数据、信息和知识的需求、研究和创新自由、人类福祉、环境和生态系统福祉为依据,将伦理价值观和原则与同人工智能技术有关的挑战和机遇联系起来,又认识到伦理价值观和原则可以通过发挥指引作用,帮助制定和实施基于权利的政策措施和法律规范,以期加快技术发展步伐,又深信全球公认的、充分尊重国际法特别是人权法的人工智能技术伦理标准可以在世界各地制定人工智能相关规范方面起到关键作用,铭记《世界人权宣言》(1948年);国际人权框架文书,包括《关于难民地位的公约》(1951年)、《就业和职业歧视公约》(1958年)、《消除一切形式种族歧视国际公约》(1965年)、《公民及政治权利国际公约》(1966年)、《经济社会文化权利国际公约》(1966年)、《消除对妇女一切形式歧视公约》(1979年)、《儿童权利公约》(1989年)和《残疾人权利公约》(2006年);《反对教育歧视公约》(1960年);《保护和促进文化表现形式多样性公约》(2005年);以及其他一切相关国际文书、建议书和宣言,又注意到《联合国发展权利宣言》(1986年);《当代人对后代人的责任宣言》(1997年);《世界生物伦理与人权宣言》(2005年);《联合国土著人民权利宣言》(2007年);2014年联合国大会关于信息社会世界峰会审查的决议(A/RES/70/125)(2015年);联合国大会关于“变革我们的世界:2030年可持续发展议程”的决议(A/RES/70/1)(2015年);《关于保存和获取包括数字遗产在内的文献遗产的建议书》(2015年);《与气候变化有关的伦理原则宣言》(2017年);《关于科学和科学研究人员的建议书》(2017年);互联网普遍性指标(2018年获得教科文组织国际传播发展计划认可),包括立足人权、开放、人人可及和多利益攸关方参与原则(2015年获得教科文组织大会认可);人权理事会关于“数字时代的隐私权”的决议(A/HRC/RES/42/15)(2019年);以及人权理事会关于“新兴数字技术与人权”的决议(A/HRC/RES/41/11)(2019年),强调必须特别关注中低收入国家,包括但不限于最不发达国家、内陆发展中国家和小岛屿发展中国家,这些国家具备能力,但在人工智能伦理问题辩论中的代表性不足,由此引发了对于地方知识、文化多元化、价值体系以及应对人工智能技术的正负两方面影响需要实现全球公平的要求受到忽视的关切,又意识到在人工智能技术的伦理和监管方面,目前存在许多国家政策以及由联合国相关实体、政府间组织(包括地区组织)和由私营部门、专业组织、非政府组织和科学界制定的其他框架和倡议,还深信人工智能技术可以带来重大惠益,但实现这些惠益也会加剧围绕创新产生的矛盾冲突、知识和技术获取不对称(包括使公众参与人工智能相关议题的能力受限的数字和公民素养赤字)以及信息获取障碍、能力亦即人员和机构能力差距、技术创新获取障碍、缺乏适当的实体和数字基础设施以及监管框架(包括与数据有关的基础设施和监管框架)的问题,所有这些问题都需要解决,强调需要加强全球合作与团结,包括通过多边主义,以促进公平获取人工智能技术,应对人工智能技术给文化和伦理体系的多样性和互联性带来的挑战,减少可能的滥用,充分发挥人工智能可能给各个领域特别是发展领域带来的潜能,确保各国人工智能战略以伦理原则为指导,充分考虑到人工智能技术的快速发展对以合乎伦理的方式应用和治理人工智能技术以及对尊重和保护文化多样性提出了挑战,并有可能扰乱地方和地区的伦理标准和价值观,1.通过本人工智能伦理问题建议书;2.建议会员国在自愿基础上适用本建议书的各项规定,特别是根据各自国家的宪法实践和治理结构采取适当步骤,包括必要的立法或其他措施,依照包括国际人权法在内的国际法,使建议书的原则和规范在本国管辖范围内生效;3.又建议会员国动员包括工商企业在内的所有利益攸关方,确保他们在实施本建议书方面发挥各自的作用;并提请涉及人工智能技术的管理部门、机构、研究和学术组织、公共、私营和民间社会机构和组织注意本建议书,使人工智能技术的开发和应用做到以健全的科学研究以及伦理分析和评估作为指导。一、适用范围1.本建议书述及与人工智能领域有关且属于教科文组织职责范围之内的伦理问题。建议书以能指导社会负责任地应对人工智能技术对人类、社会、环境和生态系统产生的已知和未知影响并相互依存的价值观、原则和行动构成的不断发展的整体、全面和多元文化框架为基础,将人工智能伦理作为一种系统性规范考量,并为社会接受或拒绝人工智能技术提供依据。建议书将伦理视为对人工智能技术进行规范性评估和指导的动态基础,以人的尊严、福祉和防止损害为导向,并立足于科技伦理。2.本建议书无意对人工智能作出唯一的定义,这种定义需要随着技术的发展与时俱进。建议书旨在探讨人工智能系统中具有核心伦理意义的特征。因此,本建议书将人工智能系统视为有能力以类似于智能行为的方式处理数据和信息的系统,通常包括推理、学习、感知、预测、规划或控制等方面。这一方法有三个重要因素:(a)人工智能系统是整合模型和算法的信息处理技术,这些模型和算法能够生成学习和执行认知任务的能力,从而在物质环境和虚拟环境中实现预测和决策等结果。在设计上,人工智能系统借助知识建模和知识表达,通过对数据的利用和对关联性的计算,可以在不同程度上实现自主运行。人工智能系统可以包含若干种方法,包括但不限于:(i)机器学习,包括深度学习和强化学习;(ii)机器推理,包括规划、调度、知识表达和推理、搜索和优化。人工智能系统可用于信息物理系统,包括物联网、机器人系统、社交机器人和涉及控制、感知及处理传感器所收集数据的人机交互以及人工智能系统工作环境中执行器的操作。(b)与人工智能系统有关的伦理问题涉及人工智能系统生命周期的各个阶段,此处系指从研究、设计、开发到配置和使用等各阶段,包括维护、运行、交易、融资、监测和评估、验证、使用终止、拆卸和终结。此外,人工智能行为者可以定义为在人工智能系统生命周期内至少参与一个阶段的任何行为者,可指自然人和法人,例如研究人员、程序员、工程师、数据科学家、终端用户、工商企业、大学和公私实体等。(c)人工智能系统引发了新型伦理问题,包括但不限于其对决策、就业和劳动、社交、卫生保健、教育、媒体、信息获取、数字鸿沟、个人数据和消费者保护、环境、民主、法治、安全和治安、双重用途、人权和基本自由(包括表达自由、隐私和非歧视)的影响。此外,人工智能算法可能复制和加深现有的偏见,从而加剧已有的各种形式歧视、偏见和成见,由此产生新的伦理挑战。其中一些问题与人工智能系统能够完成此前只有生物才能完成、甚至在有些情况下只有人类才能完成的任务有关。这些特点使得人工智能系统在人类实践和社会中以及在与环境和生态系统的关系中,可以起到意义深远的新作用,为儿童和青年的成长、培养对于世界和自身的认识、批判性地认识媒体和信息以及学会作出决定创造了新的环境。从长远看,人工智能系统可能挑战人类特有的对于经验和能动作用的感知,在人类的自我认知、社会、文化和环境的互动、自主性、能动性、价值和尊严等方面引发更多关切。3.秉承教科文组织世界科学知识与技术伦理委员会(COMEST)在2019年《人工智能伦理问题初步研究》中的分析,本建议书特别关注人工智能系统与教育、科学、文化、传播和信息等教科文组织核心领域有关的广泛伦理影响:(a)教育,这是因为鉴于对劳动力市场、就业能力和公民参与的影响,生活在数字化社会需要新的教育实践、伦理反思、批判性思维、负责任的设计实践和新的技能。(b)科学,系指最广泛意义上的科学,包括从自然科学、医学到社会科学和人文科学等所有学术领域,这是由于人工智能技术带来了新的研究能力和方法,影响到我们关于科学认识和解释的观念,为决策创建了新的基础。(c)文化特性和多样性,这是由于人工智能技术可以丰富文化和创意产业,但也会导致文化内容的供应、数据、市场和收入更多地集中在少数行为者手中,可能对语言、媒体、文化表现形式、参与和平等的多样性和多元化产生负面影响。(d)传播和信息,这是由于人工智能技术在处理、组织和提供信息方面起到日益重要的作用;很多现象引发了与信息获取、虚假信息、错误信息、仇恨言论、新型社会叙事兴起、歧视、表达自由、隐私、媒体与信息素养等有关的问题,自动化新闻、通过算法提供新闻、对社交媒体和搜索引擎上的内容进行审核和策管只是其中几个实例。4.本建议书面向会员国,会员国既是人工智能行为者,又是负责制定人工智能系统整个生命周期的法律和监管框架并促进企业责任的管理部门。此外,建议书为贯穿人工智能系统生命周期的伦理影响评估奠定了基础,从而为包括公共和私营部门在内的所有人工智能行为者提供伦理指南。二、宗旨和目标5.本建议书旨在提供基础,让人工智能系统可以造福人类、个人、社会、环境和生态系统,同时防止危害。它还旨在促进和平利用人工智能系统。6.本建议书的目的是在全球现有人工智能伦理框架之外,再提供一部全球公认的规范性文书,不仅注重阐明价值观和原则,而且着力于通过具体的政策建议切实落实这些价值观和原则,同时着重强调包容、性别平等以及环境和生态系统保护等问题。7.由于与人工智能有关的伦理问题十分复杂,需要国际、地区和国家各个层面和各个部门的众多利益攸关方开展合作,故而本建议书的宗旨是让利益攸关方能够在全球和文化间对话的基础上共同承担责任。8.本建议书的目标如下:(a)依照国际法,提供一个由价值观、原则和行动构成的普遍框架,指导各国制定与人工智能有关的立法、政策或其他文书;(b)指导个人、团体、社群、机构和私营公司的行动,确保将伦理规范嵌入人工智能系统生命周期的各个阶段;(c)在人工智能系统生命周期的各个阶段保护、促进和尊重人权和基本自由、人的尊严和平等,包括性别平等;保障当代和后代的利益;保护环境、生物多样性和生态系统;尊重文化多样性;(d)推动多利益攸关方、多学科和多元化对话和建立共识,讨论与人工智能系统有关的伦理问题;(e)促进对人工智能领域进步和知识的公平获取以及惠益共享,特别关注包括最不发达国家、内陆发展中国家和小岛屿发展中国家在内的中低收入国家的需求和贡献。三、价值观和原则9.首先,人工智能系统生命周期的所有行为者都应尊重下文所载的价值观和原则,并在必要和适当的情况下,通过修订现行的和制定新的法律、法规和业务准则来促进这些价值观和原则。这必须遵守国际法,包括《联合国宪章》和会员国的人权义务,并应符合国际商定的社会、政治、环境、教育、科学和经济可持续性目标,例如联合国可持续发展目标(SDG)。10.价值观作为催人奋进的理想,在制定政策措施和法律规范方面发挥着强大作用。下文概述的一系列价值观可以激发理想的行为并是确立原则的基础,而原则更为具体地阐述作为其根本的价值观,以便更易于在政策声明和行动中落实这些价值观。11.下文概述的所有价值观和原则本身都是可取的,但在任何实际情况下这些价值观和原则之间都可能会有矛盾。在特定情况下,需要根据具体情况进行评估以管控潜在的矛盾,同时考虑到相称性原则并尊重人权和基本自由。在所有情况下,可能对人权和基本自由施加的任何限制均必须具有合法基础,而且必须合理、必要和相称,符合各国依据国际法所承担的义务。要做到明智而审慎地处理这些情况,通常需要与广泛的相关利益攸关方合作,同时利用社会对话以及伦理审议、尽职调查和影响评估。12.人工智能系统生命周期的可信度和完整性对于确保人工智能技术造福人类、个人、社会、环境和生态系统并且体现出本建议书提出的价值观和原则至关重要。在采取适当措施降低风险时,人们应有充分理由相信人工智能系统能够带来个人利益和共享利益。具有可信度的一个基本必要条件是,人工智能系统在整个生命周期内都受到相关利益攸关方适当的全面监测。由于可信度是本文件所载各项原则得到落实的结果,本建议书提出的政策行动建议均旨在提升人工智能系统生命周期各个阶段的可信度。3.1价值观【尊重、保护和促进人权和基本自由以及人的尊严】13.每个人与生俱来且不可侵犯的尊严构成了人权和基本自由这一普遍、不可分割、不可剥夺、相互依存又彼此相关的体系的基础。因此,尊重、保护和促进包括国际人权法在内的国际法确立的人的尊严和权利,在人工智能系统的整个生命周期内都至关重要。人的尊严系指承认每个人固有和平等的价值,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。14.在人工智能系统生命周期的任何阶段,任何人或人类社群在身体、经济、社会、政治、文化或精神等任何方面,都不应受到损害或被迫居于从属地位。在人工智能系统的整个生命周期内,人类生活质量都应得到改善,而“生活质量”的定义只要不侵犯或践踏人权和基本自由或人的尊严,应由个人或群体来决定。15.在人工智能系统的整个生命周期内,人会与人工智能系统展开互动,接受这些系统提供的帮助,例如照顾弱势者或处境脆弱群体,包括但不限于儿童、老年人、残障人士或病人。在这一互动过程中绝不应将人物化,不应以其他方式损害人的尊严,也不应侵犯或践踏人权和基本自由。16.在人工智能系统的整个生命周期内,必须尊重、保护和促进人权和基本自由。各国政府、私营部门、民间社会、国际组织、技术界和学术界在介入与人工智能系统生命周期有关的进程时,必须尊重人权文书和框架。新技术应为倡导、捍卫和行使人权提供新手段,而不是侵犯人权。【环境和生态系统蓬勃发展】17.应在人工智能系统的整个生命周期内确认、保护和促进环境和生态系统的蓬勃发展。此外,环境和生态系统是关乎人类和其他生物能否享受人工智能进步所带来惠益的必要条件。18.参与人工智能系统生命周期的所有行为者都必须遵守适用的国际法以及国内立法、标准和惯例,例如旨在保护和恢复环境和生态系统以及促进可持续发展的预防措施。这些行为者应减少人工智能系统对环境的影响,包括但不限于碳足迹,以确保将气候变化和环境风险因素降到最低,防止会加剧环境恶化和生态系统退化的对自然资源的不可持续开采、使用和转化。【确保多样性和包容性】19.在人工智能系统的整个生命周期内,应依照包括人权法在内的国际法,确保尊重、保护和促进多样性和包容性。为此,可以促进所有个人或群体的积极参与,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。20.对于生活方式的选择范围、信仰、意见、表达形式或个人经验,包括对于人工智能系统的任选使用以及这些架构的共同设计,在人工智能系统生命周期的任何阶段都不应受到限制。21.此外,应作出努力,包括开展国际合作,以克服并绝不利用影响到社区的缺乏必要技术基础设施、教育和技能以及法律框架的情况,特别是在中低收入国家、最不发达国家、内陆发展中国家和小岛屿发展中国家中。【生活在和平、公正与互联的社会中】22.人工智能行为者应为确保建设和平与公正的社会发挥参与和促进作用,这种社会的根基是惠及全民、符合人权和基本自由的相互关联的未来。在和平与公正的社会中生活的价值观表明,人工智能系统在整个生命周期内都有可能为所有生物之间及其与自然环境之间的相互关联作出贡献。23.人与人之间相互联系的概念是基于这样一种认识,即每个人都属于一个更大的整体,当这个整体中的组成部分都能够繁荣兴旺时,整体才会蒸蒸日上。在和平、公正与互联的社会中生活,需要一种有机、直接、出自本能的团结纽带,其特点是不懈地寻求和平关系,倾向于在最广泛的意义上关爱他人和自然环境。24.这一价值观要求在人工智能系统的整个生命周期内促进和平、包容与正义、公平和相互联系,人工智能系统生命周期的各种进程不得隔离或物化人类和社区或者削弱其自由、自主决策和安全,不得分裂个人和群体或使之相互对立,也不得威胁人类、其他生物和自然环境之间的共存。3.2原则【相称性和不损害】25.应该认识到,人工智能技术本身并不一定能确保人类、环境和生态系统蓬勃发展。况且,与人工智能系统生命周期有关的任何进程都不得超出实现合法目的或目标所需的范围,并应切合具体情况。在有可能对人类、人权和基本自由、个别社区和整个社会,或者对环境和生态系统造成损害时,应确保落实风险评估程序并采取措施,以防止发生此类损害。26.应从以下方面证明选择使用人工智能系统和选用哪种人工智能方法的合理性:(a)所选择的人工智能方法对于实现特定合法目标应该是适当的和相称的;(b)所选择的人工智能方法不得违背本文件提出的基本价值观,特别是其使用不得侵犯或践踏人权;(c)人工智能方法应切合具体情况,并应建立在严谨的科学基础上。在所涉决定具有不可逆转或难以逆转的影响或者在涉及生死抉择的情况下,应由人类作出最终决定。人工智能系统尤其不得用于社会评分或大规模监控目的。【安全和安保】27.在人工智能系统的整个生命周期内,应避免并解决、预防和消除意外伤害(安全风险)以及易受攻击的脆弱性(安保风险),确保人类、环境和生态系统的安全和安保。开发可持续和保护隐私的数据获取框架,促进利用优质数据更好地训练和验证人工智能模型,便可以实现有安全和安保保障的人工智能。【公平和非歧视】28.人工智能行为者应根据国际法,促进社会正义并保障一切形式的公平和非歧视。这意味着要采用包容性办法确保人工智能技术的惠益人人可得可及,同时又考虑到不同年龄组、文化体系、不同语言群体、残障人士、女童和妇女以及处境不利、边缘化和弱势群体或处境脆弱群体的具体需求。会员国应努力让包括地方社区在内的所有人都能够获取提供本地相关内容和服务且尊重多语言使用和文化多样性的人工智能系统。会员国应努力消除数字鸿沟,并确保对人工智能发展的包容性获取和参与。在国家层面,会员国应努力在人工智能系统生命周期的准入和参与问题上促进城乡之间的公平,以及所有人之间的公平,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。在国际层面,技术最先进的国家有责任支持最落后的国家,确保共享人工智能技术的惠益,使得后者能够进入和参与人工智能系统生命周期,从而推动建设一个在信息、传播、文化、教育、研究、社会经济和政治稳定方面更加公平的世界秩序。29.人工智能行为者应尽一切合理努力,在人工智能系统的整个生命周期内尽量减少和避免强化或固化带有歧视性或偏见的应用程序和结果,确保人工智能系统的公平。对于带有歧视性和偏见的算法决定,应提供有效的补救办法。30.此外,在人工智能系统的整个生命周期内,需要解决国家内部和国家之间的数字和知识鸿沟,包括根据相关的国家、地区和国际法律框架解决技术和数据获取及获取质量方面的鸿沟,以及在连接性、知识和技能以及受影响社区的切实参与方面的鸿沟,以便让每个人都得到公平待遇。【可持续性】31.可持续社会的发展,有赖于在人类、社会、文化、经济和环境等方面实现一系列复杂的目标。人工智能技术的出现可能有利于可持续性目标,但也可能阻碍这些目标的实现,这取决于处在不同发展水平的国家如何应用人工智能技术。因此,在就人工智能技术对人类、社会、文化、经济和环境的影响开展持续评估时,应充分考虑到人工智能技术对于作为一套涉及多方面的动态目标(例如目前在联合国可持续发展目标中认定的目标)的可持续性的影响。【隐私权和数据保护】32.隐私权对于保护人的尊严、自主权和能动性不可或缺,在人工智能系统的整个生命周期内必须予以尊重、保护和促进。重要的是,人工智能系统所用数据的收集、使用、共享、归档和删除方式,必须符合国际法,契合本建议书提出的价值观和原则,同时遵守相关的国家、地区和国际法律框架。33.应在国家或国际层面采用多利益攸关方办法,建立适当的数据保护框架和治理机制,将其置于司法系统保护之下,并在人工智能系统的整个生命周期内予以保障。数据保护框架和任何相关机制应参鉴有关收集、使用和披露个人数据以及数据主体行使其权利的国际数据保护原则和标准,同时确保对个人数据的处理具有合法的目的和有效的法律依据,包括取得知情同意。34.需要对算法系统开展充分的隐私影响评估,其中包括使用算法系统的社会和伦理考量以及通过设计方法对于隐私的创新使用。人工智能行为者需要确保他们对人工智能系统的设计和实施负责,以确保个人信息在人工智能系统的整个生命周期内受到保护。【人类的监督和决定】35.会员国应确保始终有可能将人工智能系统生命周期的任何阶段以及与人工智能系统有关的补救措施的伦理和法律责任归属于自然人或现有法人实体。因此,人类监督不仅指个人监督,在适当情况下也指范围广泛的公共监督。36.在某些情况下,出于效率性的考虑,人类有时选择依赖人工智能系统,但是否在有限情形下出让控制权依然要由人类来决定,这是由于人类在决策和行动上可以借助人工智能系统,但人工智能系统永远无法取代人类的最终责任和问责。一般而言,生死攸关的决定不应让给人工智能系统来作。【透明度和可解释性】37.人工智能系统的透明度和可解释性往往是确保人权、基本自由和伦理原则得到尊重、保护和促进的必要先决条件。透明度是相关国家和国际责任制度有效运作的必要因素。缺乏透明度还可能削弱对根据人工智能系统产生的结果所作决定提出有效质疑的可能性,进而可能侵犯获得公平审判和有效补救的权利,并限制这些系统的合法使用领域。38.在人工智能系统的整个生命周期内都需要努力提高人工智能系统(包括那些具有域外影响的系统)的透明度和可解释性,以支持民主治理,但透明度和可解释性的程度应始终切合具体情况并与其影响相当,因为可能需要在透明度和可解释性与隐私、安全和安保等其他原则之间取得平衡。在所涉决定系参考或依据人工智能算法作出的情况下,包括在所涉决定关乎民众安全和人权的情况下,民众应该被充分告知,并且在此类情况下有机会请求相关人工智能行为者或公共机构提供解释性信息。此外,对于影响其权利和自由的决定,个人应能够了解据以作出该决定的理由,并可以选择向能够审查和纠正该决定的私营公司或公共机构指定工作人员提出意见。对于由人工智能系统直接提供或协助提供的产品或服务,人工智能行为者应以适当和及时的方式告知用户。39.从社会—技术角度来看,提高透明度有助于建设更加和平、公正、民主和包容的社会。提高透明度有利于开展公众监督,这可以减少腐败和歧视,还有助于发现和防止对人权产生的负面影响。透明度的目的是为相关对象提供适当的信息,以便他们理解和增进信任。具体到人工智能系统,透明度可以帮助人们了解人工智能系统各个阶段是如何按照该系统的具体环境和敏感度设定的。透明度还包括深入了解可以影响特定预测或决定的因素,以及了解是否具备适当的保证(例如安全或公平措施)。在存在会对人权产生不利影响的严重威胁的情况下,透明度要求可能还包括共享代码或数据集。40.可解释性是指让人工智能系统的结果可以理解,并提供阐释说明。人工智能系统的可解释性也指各个算法模块的输入、输出和性能的可解释性及其如何促成系统结果。因此,可解释性与透明度密切相关,结果和导致结果的子过程应以可理解和可追溯为目标,并且应切合具体情况。人工智能行为者应致力于确保开发出的算法是可以解释的。就对终端用户所产生的影响不是暂时的、容易逆转的或低风险的人工智能应用程序而言,应确保对导致所采取行动的任何决定作出有意义的解释,以便使这一结果被认为是透明的。41.透明度和可解释性与适当的责任和问责措施以及人工智能系统的可信度密切相关。【责任和问责】42.人工智能行为者和会员国应根据国家法律和国际法,特别是会员国的人权义务,以及人工智能系统整个生命周期的伦理准则,包括在涉及其有效疆域和实际控制范围内的人工智能行为者方面,尊重、保护和促进人权和基本自由,并且还应促进对环境和生态系统的保护,同时承担各自的伦理和法律责任。以任何方式基于人工智能系统作出的决定和行动,其伦理责任和义务最终都应由人工智能行为者根据其在人工智能系统生命周期中的作用来承担。43.应建立适当的监督、影响评估、审计和尽职调查机制,包括保护举报者,确保在人工智能系统的整个生命周期内对人工智能系统及其影响实施问责。技术和体制方面的设计都应确保人工智能系统(的运行)可审计和可追溯,特别是要应对与人权规范和标准之间的冲突以及对环境和生态系统福祉的威胁。【认识和素养】44.应通过由政府、政府间组织、民间社会、学术界、媒体、社区领袖和私营部门共同领导并顾及现有的语言、社会和文化多样性的开放且可获取的教育、公民参与、数字技能和人工智能伦理问题培训、媒体与信息素养及培训,促进公众对于人工智能技术和数据价值的认识和理解,确保公众的有效参与,让所有社会成员都能够就使用人工智能系统作出知情决定,避免受到不当影响。45.了解人工智能系统的影响,应包括了解、借助以及促进人权和基本自由。这意味着在接触和理解人工智能系统之前,应首先了解人工智能系统对人权和权利获取的影响,以及对环境和生态系统的影响。46.对数据的使用必须尊重国际法和国家主权。这意味着各国可根据国际法,对在其境内生成或经过其国境的数据进行监管,并采取措施,力争在依照国际法尊重隐私权以及其他人权规范和标准的基础上对数据进行有效监管,包括数据保护。47.不同利益攸关方对人工智能系统整个生命周期的参与,是采取包容性办法开展人工智能治理、使惠益能够为所有人共享以及推动可持续发展的必要因素。利益攸关方包括但不限于政府、政府间组织、技术界、民间社会、研究人员和学术界、媒体、教育、政策制定者、私营公司、人权机构和平等机构、反歧视监测机构以及青年和儿童团体。应采用开放标准和互操作性原则,以促进协作。应采取措施,兼顾技术的变化和新利益攸关方群体的出现,并便于边缘化群体、社区和个人切实参与,同时酌情尊重土著人民对其数据的自我管理。四、政策行动领域48.以下政策领域所述的政策行动是对本建议书提出的价值观和原则的具体落实。主要行动是会员国出台有效措施,包括政策框架或机制等,并通过开展多种行动,例如鼓励所有利益攸关方根据包括联合国《工商企业与人权指导原则》在内的准则制定人权、法治、民主以及伦理影响评估和尽职调查工具,确保私营公司、学术和研究机构以及民间社会等其他利益攸关方遵守这些框架或机制。此类政策或机制的制定过程应包括所有利益攸关方并应考虑到各会员国的具体情况和优先事项。教科文组织可以作为合作伙伴,支持会员国制定、监测和评估政策机制。49.教科文组织认识到,各会员国在科学、技术、经济、教育、法律、规范、基础设施、社会、文化和其他方面,处于实施本建议书的不同准备阶段。需要指出的是,这里的“准备”是一种动态。因此,为切实落实本建议书,教科文组织将:(1)制定准备状态评估方法,协助有关会员国确定其准备进程各个方面在特定时刻的所处状态;(2)确保支持有关会员国制定教科文组织人工智能技术伦理影响评估(EIA)方法,分享最佳做法、评估准则、其他机制和分析工作。【政策领域1:伦理影响评估】50.会员国应出台影响评估(例如伦理影响评估)框架,以确定和评估人工智能系统的惠益、关切和风险,并酌情出台预防、减轻和监测风险的措施以及其他保障机制。此种影响评估应根据本建议书提出的价值观和原则,确定对人权和基本自由(特别是但不限于边缘化和弱势群体或处境脆弱群体的权利、劳工权利)、环境和生态系统产生的影响以及伦理和社会影响,并促进公民参与。51.会员国和私营公司应建立尽职调查和监督机制,以确定、防止和减轻人工智能系统对尊重人权、法治和包容性社会产生的影响,并说明如何处理这些影响。会员国还应能够评估人工智能系统对贫困问题产生的社会经济影响,确保人工智能技术在目前和未来的大规模应用不会加剧各国之间以及国内的贫富差距和数字鸿沟。为做到这一点,尤其应针对信息(包括私营实体掌握的涉及公共利益的信息)获取,实行可强制执行的透明度协议。会员国、私营公司和民间社会应调查基于人工智能的建议对人类决策自主权的社会学和心理学影响。对于经确认对人权构成潜在风险的人工智能系统,在投放市场之前,人工智能行为者应对其进行广泛测试,包括必要时,作为伦理影响评估的一部分,在真实世界的条件下进行测试。52.会员国和工商企业应采取适当措施,监测人工智能系统生命周期的各个阶段,包括用于决策的算法的性能、数据以及参与这一过程的人工智能行为者,特别是在公共服务领域和需要与终端用户直接互动的领域,以配合开展伦理影响评估。人工智能系统评估的伦理方面应包含会员国的人权法义务。53.各国政府应采用监管框架,其中特别针对公共管理部门提出人工智能系统伦理影响评估程序,以预测后果,减少风险,避免有害后果,促进公民参与并应对社会挑战。评估还应确立能够对算法、数据和设计流程加以评估并包括对人工智能系统的外部审查的适当监督机制,包括确定可审计性、可追溯性和可解释性。伦理影响评估应透明,并酌情向公众开放。此类评估还应具备多学科、多利益攸关方、多文化、多元化和包容等特性。应要求公共管理部门引入适当的机制和工具,监测这些部门实施和/或部署的人工智能系统。【政策领域2:伦理治理和管理】54.会员国应确保人工智能治理机制具备包容性、透明性、多学科、多边(包括跨界减轻损害和作出补救的可能性)和多利益攸关方等特性。特别是,治理应包括预测、有效保护、监测影响、执行和补救等方面。55.会员国应通过实施有力的执行机制和补救行动,确保调查并补救人工智能系统造成的损害,从而确保人权和基本自由以及法治在数字世界与现实世界中同样得到尊重。此类机制和行动应包括私营公司和公营公司提供的补救机制。为此,应提升人工智能系统的可审计性和可追溯性。此外,会员国应加强履行这项承诺的机构能力,并应与研究人员和其他利益攸关方合作调查、防止并减少对于人工智能系统的潜在恶意使用。56.鼓励会员国根据应用领域的敏感程度、对人权、环境和生态系统的预期影响以及本建议书提出的其他伦理考量,制定国家和地区人工智能战略,并考虑多种形式的柔性治理,例如人工智能系统认证机制和此类认证的相互承认。此类机制可以包括针对系统、数据以及伦理准则和伦理方面的程序要求的遵守情况开展不同层面的审计。另一方面,此类机制不得因行政负担过重而妨碍创新,或者让中小企业或初创企业、民间社会以及研究和科学组织处于不利地位。此类机制还应包括定期监测,在人工智能系统的整个生命周期内确保系统的稳健性、持续完整性和遵守伦理准则,必要时可要求重新认证。57.会员国和公共管理部门应对现有和拟议的人工智能系统进行透明的自我评估,其中尤其应包括对采用人工智能是否适当进行评估,如果适当则应为确定适当的方法开展进一步评估,并评估采用这种方法是否会导致违反或滥用会员国的人权法义务,如果是则应禁止采用。58.会员国应鼓励公共实体、私营公司和民间社会组织让不同利益攸关方参与其人工智能治理工作,并考虑增设独立的人工智能伦理干事岗位或某种其他机制,负责监督伦理影响评估、审计和持续监测工作,确保对于人工智能系统的伦理指导。鼓励会员国、私营公司和民间社会组织在教科文组织的支持下,创设独立的人工智能伦理干事网络,为国家、地区和国际层面的这一进程提供支持。59.会员国应促进数字生态系统的发展和获取,以便在国家层面以合乎伦理和包容各方的方式发展人工智能系统,包括消除在人工智能系统生命周期准入方面的差距,同时推动国际合作。此类生态系统尤其包括数字技术和基础设施,在适当情况下还包括人工智能知识共享机制。60.会员国应与国际组织、跨国公司、学术机构和民间社会合作建立机制,确保所有会员国积极参与关于人工智能治理的国际讨论,特别是中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。可以通过提供资金、确保平等的地区参与或任何其他机制来实现这一目标。此外,为确保人工智能论坛的包容性,会员国应为人工智能行为者的出入境提供便利,特别是中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家的行为者,以便其参加此类论坛。61.修订现行的或制定新的有关人工智能系统的国家立法,必须遵守会员国的人权法义务,并在人工智能系统的整个生命周期内促进人权和基本自由。随着人工智能技术的发展,还应采取以下形式促进人权和基本自由:治理举措;关于人工智能系统的合作实践的良好范例;国家及国际技术和方法准则。包括私营部门在内的各个部门在其关于人工智能系统的实践中必须利用现有的和新的文书以及本建议书,尊重、保护和促进人权和基本自由。62.为执法、福利、就业、媒体和信息提供者、卫生保健和独立司法系统等对人权敏感的用途获取人工智能系统的会员国应建立机制,由独立的数据保护机关、行业监督机构和负责监督的公共机构等适当监督部门监测人工智能系统的社会和经济影响。63.会员国应增强司法机构根据法治以及国际法和国际标准作出与人工智能系统有关决定(包括在其审议中使用人工智能系统的决定)的能力,同时确保坚持人类监督原则。司法机关如若使用人工智能系统,则需要有足够的保障措施,尤其要保障对基本人权的保护、法治、司法独立以及人类监督原则,并确保司法机关对人工智能系统的开发和使用值得信赖、以公共利益为导向且以人为本。64.会员国应确保政府和多边组织在保障人工智能系统的安全和安保方面起到主导作用,并吸收多利益攸关方参与其中。具体而言,会员国、国际组织和其他相关机构应制定国际标准,列出可衡量和可检测的安全和透明度等级,以便能够客观评估人工智能系统并确定合规水平。此外,会员国和工商企业应对人工智能技术潜在安全和安保风险的战略研究提供持续支持,并应鼓励透明度、可解释性、包容和素养问题研究,在不同方面和不同层面(例如技术语言和自然语言)为这些领域投入更多资金。65.会员国应实施政策,在人工智能系统的整个生命周期内确保人工智能行为者的行动符合国际人权法、标准和原则,同时充分考虑到当前的文化和社会多样性,包括地方习俗和宗教传统,并适当考虑到人权的优先性和普遍性。66.会员国应建立机制,要求人工智能行为者披露并打击人工智能系统结果和数据中任何类型的陈规定型观念,无论是设计使然还是出于疏忽,确保人工智能系统的训练数据集不会助长文化、经济或社会不平等和偏见,不会散播虚假信息和错误信息,也不会干扰表达自由和信息获取。应特别关注数据匮乏地区。67.会员国应实施政策,促进并提高人工智能开发团队和训练数据集的多样性和包容性,以反映其人口状况,确保人工智能技术及其惠益的平等获取,特别是对农村和城市地区的边缘化群体而言。68.会员国应酌情制定、审查并调整监管框架,在人工智能系统生命周期的不同阶段对其内容和结果实施问责制和责任制。会员国应在必要时出台责任框架或澄清对现有框架的解释,确保为人工智能系统的结果和性能确定责任归属。此外,会员国在制定监管框架时,应特别考虑到最终责任和问责必须总是落实到自然人或法人身上,人工智能系统本身不应被赋予法人资格。为确保这一点,此类监管框架应符合人类监督原则,并确立着眼于人工智能系统生命周期不同阶段的人工智能行为者和技术流程的综合性方法。69.为在空白领域确立规范或调整现有的法律框架,会员国应让所有人工智能行为者(包括但不限于研究人员、民间社会和执法部门的代表、保险公司、投资者、制造商、工程师、律师和用户)参与其中。这些规范可以发展成为最佳做法、法律和法规。进一步鼓励会员国采用样板政策和监管沙箱等机制,加快制定与新技术的飞速发展相适应的法律、法规和政策,包括对其进行定期审查,确保法律法规在正式通过之前能够在安全环境下进行测试。会员国应支持地方政府制定符合国家和国际法律框架的地方政策、法规和法律。70.会员国应对人工智能系统的透明度和可解释性提出明确要求,以协助确保人工智能系统整个生命周期的可信度。此类要求应包括影响机制的设计和实施,其中要考虑到每个特定人工智能系统的应用领域的性质、预期用途、目标受众和可行性。【政策领域3:数据政策】71.会员国应努力制定数据治理战略,确保持续评估人工智能系统训练数据的质量,包括数据收集和选择过程的充分性、适当的数据安全和保护措施以及从错误中学习和在所有人工智能行为者之间分享最佳做法的反馈机制。72.会员国应采取适当的保障措施,根据国际法保护隐私权,包括应对人们对于监控等问题的关切。会员国尤其应通过或实施可以提供适当保护并符合国际法的法律框架。会员国应大力鼓励包括工商企业在内的所有人工智能行为者遵守现行国际标准,特别是在伦理影响评估中开展适当的隐私影响评估,其中要考虑到预期数据处理产生的更广泛的社会经济影响,并在其系统中采用从设计入手保护隐私的做法。在人工智能系统的整个生命周期内应尊重、保护和促进隐私。73.会员国应确保个人可以保留对于其个人数据的权利并得到相关框架的保护,此类框架尤其应预见到以下问题:透明度;对于处理敏感数据的适当保障;适当程度的数据保护;有效和实际的问责方案和机制;除符合国际法的某些情况外,数据主体对访问和删除其在人工智能系统中个人数据的权利和能力的充分享有;数据用于商业目的(例如精准定向广告)或跨境转移时完全符合数据保护法的适度保护;切实有效的独立监督,作为使个人可以掌控其个人数据、尊重数据主权并促进国际信息自由流通(包括数据获取)之惠益的数据治理机制的一部分。74.会员国应制定数据政策或等效框架,或者加强现有政策或框架,以确保个人数据和敏感数据的充分安全,这类数据一旦泄露,可能会给个人造成特殊损害、伤害或困难。相关实例包括:与犯罪、刑事诉讼、定罪以及相关安全措施有关的数据;生物识别、基因和健康数据;与种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或任何其他特征有关的个人数据。75.会员国应促进开放数据。在这方面,会员国应考虑审查其政策和监管框架,包括关于信息获取和政务公开的政策和监管框架,以便反映出人工智能特有的要求,并考虑促进相关机制,例如为公共资金资助或公有的数据和源代码以及数据信托建立开放式存储库,以支持安全、公平、合法与合乎伦理的数据分享等。76.会员国应推动和促进将优质和稳健的数据集用于训练、开发和使用人工智能系统,并在监督数据集的收集和使用方面保持警惕。这包括在可能和可行的情况下投资建立黄金标准数据集,包括开放、可信、多样化、建立在有效的法律基础上并且按法律要求征得数据主体同意的数据集。应鼓励制定数据集标注标准,包括按性别和其他标准分列数据,以便于确定数据集的收集方式及其特性。77.按照联合国秘书长数字合作高级别小组报告的建议,会员国应在联合国和教科文组织的支持下,酌情采用数字共享方式处理数据,提高工具、数据集和数据托管系统接口的互操作性,鼓励私营公司酌情与所有利益攸关方共享其收集的数据,以促进研究、创新和公共利益。会员国还应促进公共和私营部门建立协作平台,在可信和安全的数据空间内共享优质数据。【政策领域4:发展与国际合作】78.会员国和跨国公司应优先考虑人工智能伦理,在相关国际、政府间和多利益攸关方论坛上讨论与人工智能有关的伦理问题。79.会员国应确保人工智能在教育、科学、文化、传播和信息、卫生保健、农业和食品供应、环境、自然资源和基础设施管理、经济规划和增长等发展领域的应用符合本建议书提出的价值观和原则。80.会员国应通过国际组织,努力为人工智能促进发展提供国际合作平台,包括提供专业知识、资金、数据、领域知识和基础设施,以及促进多利益攸关方之间的合作,以应对具有挑战性的发展问题,特别是针对中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。81.会员国应努力促进人工智能研究和创新方面的国际合作,包括可以提升中低收入国家和其他国家(包括最不发达国家、内陆发展中国家和小岛屿发展中国家)研究人员的参与度和领导作用的研究和创新中心及网络。82.会员国应通过吸收国际组织、研究机构和跨国公司参与,促进人工智能伦理研究,可以将这些研究作为公共和私营实体以合乎伦理的方式使用人工智能系统的基础,包括研究具体伦理框架在特定文化和背景下的适用性,以及根据这些框架开发技术上可行的解决方案的可能性。83.会员国应鼓励在人工智能领域开展国际合作与协作,以弥合地缘技术差距。应在充分尊重国际法的前提下,在会员国与其民众之间、公共和私营部门之间以及技术上最先进和最落后的国家之间,开展技术交流和磋商。【政策领域5:环境和生态系统】84.在人工智能系统的整个生命周期内,会员国和工商企业应评估对环境产生的直接和间接影响,包括但不限于其碳足迹、能源消耗以及为支持人工智能技术制造而开采原材料对环境造成的影响,并应减少人工智能系统和数据基础设施造成的环境影响。会员国应确保所有人工智能行为者遵守有关环境的法律、政策和惯例。85.会员国应在必要和适当时引入激励措施,确保开发并采用基于权利、合乎伦理、由人工智能驱动的解决方案抵御灾害风险;监测和保护环境与生态系统,并促进其再生;保护地球。这些人工智能系统应在其整个生命周期内让地方和土著社区参与,并应支持循环经济做法以及可持续的消费和生产模式。例如,在必要和适当时可将人工智能系统用于以下方面:(a)支持自然资源的保护、监测和管理。(b)支持与气候有关问题的预测、预防、控制和减缓。(c)支持更加高效和可持续的粮食生态系统。(d)支持可持续能源的加速获取和大规模采用。(e)促成并推动旨在促进可持续发展的可持续基础设施、可持续商业模式和可持续金融主流化。(f)检测污染物或预测污染程度,协助相关利益攸关方确定、规划并实施有针对性的干预措施,防止并减少污染及曝露风险。86.会员国在选择人工智能方法时,鉴于其中一些方法可能具有数据密集型或资源密集型特点以及对环境产生的不同影响,应确保人工智能行为者能够根据相称性原则,倾向于使用节约数据、能源和资源的人工智能方法。应制定要求,确保有适当证据表明一项人工智能应用程序将产生这种预期效果,或一项人工智能应用程序的附加保障措施可以为使用该应用程序的合理性提供支撑。假如做不到这一点,则必须遵循预防原则,而且在会对环境造成极其严重的负面影响的情况下,不得使用人工智能。【政策领域6:性别】87.会员国应确保数字技术和人工智能促进实现性别平等的潜能得到充分发挥,而且必须确保在人工智能系统生命周期的任何阶段,女童和妇女的人权和基本自由及其安全和人格不受侵犯。此外,伦理影响评估应包含横向性别平等视角。88.会员国应从公共预算中划拨专项资金,用于资助促进性别平等的计划,确保国家数字政策包含性别行动计划,并制定旨在支持女童和妇女的相关政策,例如劳动力教育政策,以确保她们不会被排除在人工智能驱动的数字经济之外。应考虑并落实专项投资,用于提供有针对性的计划和有性别针对性的语言,从而为女童和妇女参与科学、技术、工程和数学(STEM)领域,包括信息和通信技术(信通技术)学科,以及为她们的就业准备、就业能力、平等的职业发展和专业成长,提供更多机会。89.会员国应确保人工智能系统推动实现性别平等的潜能得到实现。会员国应确保这些技术不会加剧,而是消除模拟世界多个领域中已经存在的巨大性别差距。这些差距包括:性别工资差距;某些职业和活动中不平等的代表性;人工智能领域高级管理职位、董事会或研究团队中的代表性缺失;教育差距;数字和人工智能的获取、采用、使用和负担能力方面的差距;以及无偿工作和照料责任在社会中的不平等分配。90.会员国应确保性别陈规定型观念和歧视性偏见不会被移植入人工智能系统,而且还应对其加以鉴别和主动纠正。必须努力避免技术鸿沟对以下方面产生复合性负面影响:实现性别平等和避免暴力侵害,例如针对妇女和女童以及代表性不足群体的骚扰、欺凌和贩运,包括在线上领域。91.会员国应鼓励女性创业、参与并介入人工智能系统生命周期的各个阶段,具体办法是提供并促进经济和监管方面的激励措施以及其他激励措施和支持计划,制定目的是在学术界的人工智能研究方面实现性别均衡的参与、在数字和人工智能公司高级管理职位、董事会和研究团队中实现性别均衡的代表性的政策。会员国应确保(用于创新、研究和技术的)公共资金流向具有包容性和明确的性别代表性的计划和公司,并利用平权行动原则鼓励私人资金朝着类似方向流动。应制定并执行关于无骚扰环境的政策,同时鼓励传播关于如何在人工智能系统的整个生命周期内促进多样性的最佳做法。92.会员国应促进学术界和产业界人工智能研究领域的性别多样性,为女童和妇女进入该领域提供激励措施,建立机制消除人工智能研究界的性别陈规定型观念和骚扰行为,并鼓励学术界和私营实体分享关于如何提高性别多样性的最佳做法。93.教科文组织可以协助建立最佳做法资料库,鼓励女童、妇女和代表性不足的群体参与人工智能系统生命周期的各个阶段。【政策领域7:文化】94.鼓励会员国酌情将人工智能系统纳入物质、文献和非物质文化遗产(包括濒危语言以及土著语言和知识)的保护、丰富、理解、推广、管理和获取工作,具体办法包括酌情出台或更新与在这些领域应用人工智能系统有关的教育计划,以及确保采用针对机构和公众的参与式方法。95.鼓励会员国审查并应对人工智能系统产生的文化影响,特别是自动翻译和语音助手等自然语言处理(NLP)应用程序给人类语言和表达的细微差别带来的影响。此类评估应为设计和实施相关战略提供参考,通过弥合文化差距、增进人类理解以及消除因减少使用自然语言等因素造成的负面影响,最大限度地发挥人工智能系统的惠益。减少使用自然语言可能导致濒危语言、地方方言以及与人类语言和表达形式有关的语音和文化差异的消失。96.随着人工智能技术被用于创造、生产、推广、传播和消费多种文化产品和服务,会员国应促进针对艺术家和创意从业人员的人工智能教育和数字培训,以评估人工智能技术在其专业领域的适用性,并推动设计和应用适当的人工智能技术,同时铭记保护文化遗产、多样性和艺术自由的重要性。97.会员国应促进当地文化产业和文化领域的中小企业对于人工智能工具的认识和评价,避免文化市场集中化的风险。98.会员国应吸收技术公司和其他利益攸关方参与进来,促进文化表现形式的多样化供应和多元化获取,特别要确保算法建议可以提高本地内容的知名度和可见性。99.会员国应促进在人工智能和知识产权的交汇点上开展新的研究,例如确定是否或如何对通过人工智能技术创作的作品给予知识产权保护。会员国还应评估人工智能技术如何影响作品被用于研究、开发、培训或实施人工智能应用程序的知识产权所有者的权利或利益。100.会员国应鼓励国家级博物馆、美术馆、图书馆和档案馆使用人工智能系统,以突出其藏品,强化其图书馆、数据库和知识库,并允许用户访问。【政策领域8:教育和研究】101.会员国应与国际组织、教育机构、私营实体和非政府实体合作,在各个层面向所有国家的公众提供充分的人工智能素养教育,以增强人们的权能,减少因广泛采用人工智能系统而造成的数字鸿沟和数字获取方面的不平等。102.会员国应促进人工智能教育“必备技能”的掌握,例如基本读写、计算、编码和数字技能、媒体与信息素养、批判性思维和创意思维、团队合作、沟通、社会情感技能和人工智能伦理技能,特别是在相关技能教育存在明显差距的国家及国内地区或区域。103.会员国应促进关于人工智能发展的一般性宣传计划,其中包括数据、人工智能技术带来的机会和挑战、人工智能系统对人权(包括儿童权利)的影响及其意义。这些计划对于非技术群体和技术群体来说都应简明易懂。104.会员国应鼓励开展关于以负责任和合乎伦理的方式将人工智能技术应用于教学、教师培训和电子学习等方面的研究活动,以增加机会,减轻这一领域的挑战和风险。在开展这些研究活动的同时,应充分评估教育质量以及人工智能技术的应用对于学生和教师的影响。会员国还应确保人工智能技术可以增强师生的权能和体验,同时铭记关系和社交方面以及传统教育形式的价值对于师生关系以及学生之间的关系至关重要,在讨论将人工智能技术应用于教育时应考虑到这一点。当涉及到监测、评估能力或预测学习者的行为时,用于学习的人工智能系统应符合严格的要求。人工智能应依照相关的个人数据保护标准支持学习过程,既不降低认知能力,也不提取敏感信息。在学习者与人工智能系统的互动过程中收集到的为获取知识而提交的数据,不得被滥用、挪用或用于犯罪,包括用于商业目的。105.会员国应提升女童和妇女、不同族裔和文化、残障人士、边缘化和弱势群体或处境脆弱群体、少数群体以及没能充分得益于数字包容的所有人在各级人工智能教育计划中的参与度和领导作用,监测并与其他国家分享这方面的最佳做法。106.会员国应根据本国教育计划和传统,为各级教育开发人工智能伦理课程,促进人工智能技术技能教育与人工智能教育的人文、伦理和社会方面的交叉协作。应以当地语言(包括土著语言)开发人工智能伦理教育的在线课程和数字资源,并考虑到环境多样性,特别要确保采用残障人士可以使用的格式。107.会员国应促进并支持人工智能研究,特别是人工智能伦理问题研究,具体办法包括投资于此类研究或制定激励措施推动公共和私营部门投资于这一领域等,同时承认此类研究可极大地推动人工智能技术的进一步发展和完善,以促进落实国际法和本建议书中提出的价值观和原则。会员国还应公开推广以合乎伦理的方式开发人工智能的研究人员和公司的最佳做法,并与之合作。108.会员国应确保人工智能研究人员接受过研究伦理培训,并要求他们将伦理考量纳入设计、产品和出版物中,特别是在分析其使用的数据集、数据集的标注方法以及可能投入应用的成果的质量和范围方面。109.会员国应鼓励私营公司为科学界获取其数据用于研究提供便利,特别是在中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。这种获取应遵守相关隐私和数据保护标准。110.为确保对人工智能研究进行批判性评估并适当监测可能出现的滥用或负面影响,会员国应确保人工智能技术今后的任何发展都应建立在严谨和独立的科学研究基础上,并吸收除科学、技术、工程和数学(STEM)之外的其他学科,例如文化研究、教育、伦理学、国际关系、法律、语言学、哲学、政治学、社会学和心理学等,促进开展跨学科的人工智能研究。111.认识到人工智能技术为助力推进科学知识和实践提供了大好机会,特别是在以往采用模型驱动方法的学科中,会员国应鼓励科学界认识到使用人工智能的惠益、不足和风险;这包括努力确保通过数据驱动的方法、模型和处理方式得出的结论完善可靠。此外,会员国应欢迎并支持科学界在为政策建言献策和促进人们认识到人工智能技术的优缺点方面发挥作用。【政策领域9:传播和信息】112.会员国应利用人工智能系统改善信息和知识的获取。这可包括向研究人员、学术界、记者、公众和开发人员提供支持,以加强表达自由、学术和科学自由、信息获取,加大主动披露官方数据和信息的力度。113.在自动内容生成、审核和策管方面,会员国应确保人工智能行为者尊重并促进表达自由和信息获取自由。适当的框架,包括监管,应让线上通信和信息运营商具有透明度,并确保用户能够获取多样化的观点,以及迅速告知用户为何对内容进行删除或其他处理的相关程序和让用户能够寻求补救的申诉机制。114.会员国应投资于并促进数字以及媒体与信息素养技能,加强理解人工智能系统的使用和影响所需的批判性思维和能力,从而减少和打击虚假信息、错误信息和仇恨言论。此种努力应包括加强对推荐系统的积极和潜在有害影响的了解和评估。115.会员国应为媒体创造有利的环境,使媒体有权利和资源切实有效地报道人工智能系统的利弊,并鼓励媒体在其业务中以合乎伦理的方式使用人工智能系统。【政策领域10:经济和劳动】116.会员国应评估并处理人工智能系统对所有国家劳动力市场的冲击及其对教育要求的影响,同时特别关注经济属于劳动密集型的国家。这可以包括在各级教育中引入更广泛的跨学科“核心”技能,为当前的劳动者和年轻世代提供可以在飞速变化的市场中找到工作的公平机会,并确保他们对于人工智能系统的伦理问题有所认识。除了传授专业技术技能和低技能任务知识之外,还应教授“学会如何学习”、沟通、批判性思维、团队合作、同理心以及在不同领域之间灵活运用知识的能力等技能。关键是要在有高需求的技能方面保持透明度,并围绕这些技能更新学校课程。117.会员国应支持政府、学术机构、职业教育与培训机构、产业界、劳工组织和民间社会之间的合作协议,以弥合技能要求方面的差距,让培训计划和战略与未来工作的影响和包括中小企业在内的产业界的需求保持一致。应促进以项目为基础的人工智能教学和学习方法,以便公共机构、私营公司、大学和研究中心之间能够建立伙伴关系118.会员国应与私营公司、民间组织和其他利益攸关方(包括劳动者和工会)合作,确保高风险员工可以实现公平转型。这包括制定技能提升计划和技能重塑计划,建立在过渡期内保留员工的有效机制,以及为无法得到再培训的员工探索尝试“安全网”计划。会员国应制定并实施计划,以研究和应对已确定的各项挑战,其中可能包括技能提升和技能重塑、加强社会保障、主动的行业政策和干预措施、税收优惠、新的税收形式等。会员国应确保有足够的公共资金来支持这些计划。应审慎审查并在必要时修改税制等相关法规,消解基于人工智能的自动化造成的失业后果。119.会员国应鼓励并支持研究人员分析人工智能系统对于当地劳动环境的影响,以预测未来的趋势和挑战。这些研究应采用跨学科方法,调查人工智能系统对经济、社会和地域因素、人机互动和人际关系产生的影响,以便就技能重塑和重新部署的最佳做法提出建议。120.会员国应采取适当措施,确保竞争性市场和消费者保护,同时考虑可在国家、地区和国际各级采取何种措施和机制来防止在人工智能系统的整个生命周期内滥用与人工智能系统有关的市场支配地位,包括垄断,无论是数据、研究、技术还是市场垄断。会员国应防止由此造成的不平等,评估相关市场,并促进竞争性市场。应适当考虑中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家,这些国家由于缺乏基础设施、人力资源能力和规章制度等要素,面临滥用市场支配地位行为的风险更大,也更容易因之受到影响。在已制定或通过人工智能伦理标准的国家从事人工智能系统开发的人工智能行为者,在出口这些产品以及在可能没有此类标准的国家开发或应用其人工智能系统时,应遵守这些标准,并遵守适用的国际法以及这些国家的国内立法、标准和惯例。【政策领域11:健康和社会福祉】121.会员国应努力利用有效的人工智能系统来改善人类健康并保护生命权,包括减少疾病的爆发,同时建立并维护国际团结,以应对全球健康风险和不确定性,并确保在卫生保健领域采用人工智能系统的做法符合国际法及其人权法义务。会员国应确保参与卫生保健人工智能系统的行为者会考虑到患者与家属的关系以及患者与医护人员关系的重要性。122.会员国应确保与健康、特别是精神健康有关的人工智能系统的开发和部署适当关注儿童和青年,并受到监管,使其做到安全、有效、高效、经过科学和医学证明并能促进循证创新和医学进步。此外,在数字健康干预的相关领域,大力鼓励会员国主动让患者及其代表参与系统开发的所有相关步骤。123.会员国应特别注意通过以下方式规范人工智能应用程序中用于卫生保健的预测、检测和治疗方案:(a)确保监督,以尽可能减少和减轻偏见;(b)在开发算法时,确保在所有相关阶段将专业人员、患者、护理人员或服务用户作为“领域专家”纳入团队;(c)适当注意因可能需要医学监测而产生的隐私问题,并确保所有相关的国家和国际数据保护要求得到满足;(d)确保建立有效机制,让被分析的数据主体了解对其个人数据的使用和分析并给予知情同意,同时又不妨碍他们获取卫生保健服务;(e)确保人工护理以及最终的诊断和治疗决定一律由人类作出,同时肯定人工智能系统也可以协助人类工作;(f)必要时确保在投入临床使用之前由伦理研究委员会对人工智能系统进行审查。124.会员国应研究人工智能系统对于心理健康的潜在危害所产生的影响及如何加以调控的问题,例如深度抑郁、焦虑、社会隔离、成瘾、贩运、激进化和误导等。125.会员国应在研究的基础上,针对机器人的未来发展,制定关于人机互动及其对人际关系所产生影响的准则,并特别关注人类身心健康。尤其应关注应用于卫生保健以及老年人和残障人士护理的机器人、应用于教育的机器人、儿童用机器人、玩具机器人、聊天机器人以及儿童和成人的陪伴机器人的使用问题。此外,应利用人工智能技术的协助来提高机器人的安全性,增进其符合人体工程学的使用,包括在人机工作环境中。应特别注意到利用人工智能操控和滥用人类认知偏差的可能性。126.会员国应确保人机互动遵守适用于任何其他人工智能系统的相同价值观和原则,包括人权和基本自由、促进多样性和保护弱势群体或处境脆弱群体。应考虑与人工智能驱动的神经技术系统和脑机接口有关的伦理问题,以维护人的尊严和自主权。127.会员国应确保用户能够轻松识别与自己互动的对象是生物,还是模仿人类或动物特征的人工智能系统,并且能够有效拒绝此类互动和要求人工介入。128.会员国应实施政策,提高人们对于人工智能技术以及能够识别和模仿人类情绪的技术拟人化的认识,包括在提及这些技术时所使用的语言,并评估这种拟人化的表现形式、伦理影响和可能存在的局限性,特别是在人机互动的情况下和涉及到儿童时。129.会员国应鼓励并促进关于人与人工智能系统长期互动所产生影响的合作研究,特别注意这些系统对儿童和青年的心理和认知可能产生的影响。在开展此类研究时,应采用多种规范、原则、协议、学科方法,评估行为和习惯的改变,并审慎评估下游的文化和社会影响。此外,会员国应鼓励研究人工智能技术对于卫生系统的业绩和卫生结果产生的影响。130.会员国和所有利益攸关方应建立机制,让儿童和青年切实参与到关于人工智能系统对其生活和未来所产生影响的对话、辩论和决策中。五、监测和评估131.会员国应根据本国具体国情、治理结构和宪法规定,采用定量和定性相结合的方法,以可信和透明的方式监测和评估与人工智能伦理问题有关的政策、计划和机制。为支持会员国,教科文组织可以从以下方面作出贡献:(a)制定以严谨的科学研究为基础且以国际人权法为根据的教科文组织人工智能技术伦理影响评估(EIA)方法,关于在人工智能系统生命周期各个阶段实施该方法的指南,以及用于支持会员国对政府官员、政策制定者和其他相关人工智能行为者进行伦理影响评估方法培训的能力建设材料;(b)制定教科文组织准备状态评估方法,协助会员国确定其准备进程各个方面在特定时刻的所处状态;(c)制定教科文组织关于在事先和事后对照既定目标评估人工智能伦理政策和激励政策效力和效率的方法;(d)加强关于人工智能伦理政策的基于研究和证据的分析和报告;(e)收集和传播关于人工智能伦理政策的进展、创新、研究报告、科学出版物、数据和统计资料,包括通过现有举措,以支持最佳做法分享和相互学习,推动实施本建议书。132.监测和评估进程应确保所有利益攸关方的广泛参与,包括但不限于弱势群体或处境脆弱群体。应确保社会、文化和性别多样性,以期改善学习过程,加强调查结果、决策、透明度和成果问责制之间的联系。133.为促进与人工智能伦理有关的最佳政策和做法,应制定适当的工具和指标,以便根据商定的标准、优先事项和具体目标,包括关于处境不利者、边缘化群体和弱势群体或处境脆弱群体的具体目标,评估此类政策和做法的效力和效率,以及人工智能系统在个人和社会层面产生的影响。人工智能系统及相关人工智能伦理政策和做法的影响监测和评估应以与有关风险相称的系统方法持续开展。这项工作应以国际商定的框架为基础,涉及对于私营和公共机构、提供方和计划的评估,包括自我评估,以及开展跟踪研究和制定一系列指标。数据收集和处理工作应遵守国际法、关于数据保护和数据隐私的国家立法以及本建议书概述的价值观和原则。134.尤其是,会员国不妨考虑可行的监测和评估机制,例如:伦理问题委员会、人工智能伦理问题观察站、记录符合人权与合乎伦理的人工智能系统发展情况或在教科文组织各职能领域通过恪守伦理原则为现有举措作出贡献的资料库、经验分享机制、人工智能监管沙箱和面向所有人工智能行为者的评估指南,以评估会员国对于本文件所述政策建议的遵守情况。六、本建议书的使用和推广135.会员国和本建议书确定的所有其他利益攸关方应尊重、促进和保护本建议书提出的人工智能伦理价值观、原则和标准,并应采取一切可行步骤,落实本建议书的政策建议。136.会员国应与在本建议书的范围和目标范畴内开展活动的所有相关国家和国际政府组织、非政府组织、跨国公司和科学组织合作,努力扩大并充实围绕本建议书采取的行动。制定教科文组织伦理影响评估方法和建立国家人工智能伦理委员会,可以作为这方面的重要手段。七、本建议书的宣传137.教科文组织是负责宣传和传播本建议书的主要联合国机构,因此将与其他相关联合国实体合作开展工作,同时尊重它们的任务授权并避免工作重复。138.教科文组织,包括其世界科学知识与技术伦理委员会(COMEST)、国际生物伦理委员会(IBC)和政府间生物伦理委员会(IGBC)等机构,还将与其他国际、地区和分地区政府组织和非政府组织开展合作。139.尽管在教科文组织范围内,促进和保护任务属于各国政府和政府间机构的职权范围,但民间社会将是倡导公共部门利益的重要行为者,因此教科文组织需要确保和促进其合法性。八、最后条款140.应将本建议书作为一个整体来理解,各项基本价值观和原则应被视为相互补充、相互关联。141.本建议书中的任何内容既不得解释为取代、改变或以其他方式损害各国根据国际法所负义务或所享权利,也不得解释为允许任何国家、其他政治、经济或社会行为者、群体或个人参与或从事任何有悖人权、基本自由、人的尊严以及对生物和非生物的环境与生态系统所抱之关切的活动或行为。特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。【中国科学报】人工智能伦理迈向全球共识新征程
日前,联合国教科文组织(UNESCO)正式发布《人工智能伦理建议书》(以下简称《建议书》),这是关于人工智能伦理的首份全球性规范文书。
作为UNESCO人工智能伦理特设专家组成员,中科院自动化研究所中英人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅参与了《建议书》的起草与修改。
曾毅在接受《中国科学报》采访时表示,“《建议书》是目前全世界在政府层面达成的最广泛的共识,是全球人工智能发展的共同纲领,将为进一步形成人工智能伦理有关的国际标准、国际法等提供强有力的参考。”
走向全球共识
隐私、安全、公平、对人类的潜在风险……人工智能在飞速发展的同时,也给社会带来了根本性的挑战。
虽然不同国家、政府间组织、科研和产业界已经发布了不少关于人工智能发展、伦理与治理原则,但这些原则并没有形成统一观念,人工智能伦理亟待达成全球共识。
UNESCO总干事阿祖莱在《建议书》发布会上表示,“我们呼吁所有的成员国立即行动起来开始实施这份建议书。民众、企业等全社会都应当行动起来。这项工作已经开始了,20余个国家已经表态当《建议书》被采纳后,将受《建议书》的启发开启评估。UNESCO将推进务实的评估落地工作。”
此次发布的《建议书》的核心是价值观、伦理原则及相关的政策建议、监测与评估。在价值观方面,《建议书》从尊重、保护和促进人权和基本自由以及人的尊严,环境和生态系统蓬勃发展,确保多样性和包容性,以及在和平、公正与互联的社会中共生等4部分进行了阐述。
曾毅认为,《建议书》囊括了针对现代人工智能(人工智能作为信息处理工具和赋能技术)伦理考虑的最重要方面。
例如,虽然大规模数据处理及算力的提升促进了现代人工智能的发展,但也带来了潜在的环境问题。
为此,《建议书》在价值观“环境和生态系统蓬勃发展”部分指出,应减少人工智能系统对环境的影响,包括但不限于碳足迹,以确保将气候变化和环境风险因素降到最低,防止会加剧环境恶化和生态系统退化的对自然资源的不可持续开采、使用和转化。
此外,《建议书》还考虑了不适用人工智能的场景,并在“相称性与不损害”的原则部分提出,人工智能技术本身并不一定能确保人类、环境和生态系统蓬勃发展。在有可能对人类、人权和基本自由、个别社区和整个社会,或者对环境和生态系统造成损害时,应确保落实风险评估程序并采取措施,以防止发生此类损害。
不仅如此,《建议书》在此部分还明确提出人类应当确保在关键领域进行有意义的控制,并确保人类的决策权,并对高风险领域进行了警示。
“和谐共生”价值观被部分采纳
在曾毅看来,《建议书》在一定程度体现了全球不同文化的包容性思想。其中“在和平、公正与互联的社会中共生”的价值观充分体现了来自亚洲和非洲等国专家的共同愿景与贡献。
在UNESCO特设专家组撰写草案期间,鉴于部分国家和政府间组织的人工智能原则强调自身的价值观和利益优先,曾毅提议纳入“和谐共生”的价值观。
在曾毅看来,“和谐共生”的价值观,是倡导人类社会与人工智能技术和谐发展,人工智能赋能人类、社会、生态之间的和谐发展,号召各个国家通过人工智能促进人类命运共同体的构建。
他告诉记者,“和谐共生”的思想在由国家新一代人工智能治理专委会制定的《新一代人工智能治理原则》以及《新一代人工智能伦理规范》中以“和谐友好”等形式和内容体现相似表述,是我国发展人工智能技术,处理技术与社会关系的总纲。
虽然“和谐共生”的提议被来自亚洲和非洲等多国的特设专家组专家及部分政府间磋商代表所赞同,但在随后的环节,由于部分国家代表未能接受“和谐”“人类命运共同体”的提法,随后改为“在和平、公正与互联的社会中共生”,“和谐共生”的核心要义得以部分保留和采纳。
例如,《建议书》在“在和平、公正与互联的社会中共生”的部分强调“每个人都属于一个更大的整体,当这个整体中的组成部分都能够繁荣兴旺时,整体才会蒸蒸日上”等内容。
曾毅对此感到有些遗憾,“‘和平共生’与‘和谐共生’的意义并不完全相同。‘和谐共生’在和而不同、和舟共济的基础上还有发展的意义,倡导优化共生,而‘和平共生’这种表述难以表达求同存异,谋求发展的意义。”
但他也表示,虽然《建议书》没有直接采纳“和谐共生”的表述,但相关思想得以保留,被各国专家认为是《建议书》中融入非西方价值观的重要体现。
“‘和谐共生’的理念已经作为我国人工智能伦理与治理原则的特色,未来必然会成为中国对世界的贡献。”曾毅表示。
可持续发展的共同愿景
可持续发展目标是联合国各机构力推的全球发展共同愿景,我国发布的《新一代人工智能治理原则》以及《新一代人工智能伦理规范》都将可持续发展作为新一代人工智能的总体愿景和赋能全球人工智能发展的重要途径。然而很多国家在人工智能发展和伦理原则中并没有明确提出可持续性。
因此,在《建议书》原则部分的撰写阶段,曾毅提出,虽然可持续的理念隐含在文本中的若干方面,但作为全球共同愿景,发展人工智能必须赋能可持续发展目标的实现,同时还要密切关注人工智能应用于可持续发展相关目标领域时,是否带来阻碍该目标实现的风险,寻求发展与治理的协同。“‘可持续’应当作为原则明确列入《建议书》。”
最终,该意见被《建议书》不同阶段广泛接受,并在政策部分,特别针对环境和生态系统领域如何通过人工智能赋能实现可持续性给出了具体建议。
实际上,除了参与起草和修改《建议书》,曾毅还在UNESCO组织的区域性专家咨询会上代表UNESCO特设专家组向亚太地区各国政府专家代表宣讲了《建议书》草案,并作为政府间专家磋商的中方专家代表参加磋商。
曾毅告诉记者,起草和宣讲《建议书》时,他从未感到紧张,因为在那个阶段,他的角色更多的是贡献学术观点的独立的学者。但在政府间代表磋商阶段,特别是被称为“成员国中国代表”时,他倍感责任重大。
目前,UNESCO正在依据《建议书》建立伦理评估工具和针对国家人工智能伦理完备指数评估的辅助系统,以敦促和帮助各国落实伦理规范。
在曾毅看来,人工智能的国际协作是通过技术赋能助力实现人类命运共同体,而人工智能伦理与治理的国际交流与协作是确保人工智能国际合作能够达成共识,并持续推进的基石。
“因此,十分有必要推进形成由类似于UNESCO这样的政府间机构、各国政府、学术界、产业、公众紧密交互的多利益相关方人工智能治理体系,通过深度协同扩大共识、避免误解、减小分歧,确保人工智能的全球发展及其治理最终促进人类和生态的整体协同发展。”曾毅表示。
新闻链接:https://news.sciencenet.cn//htmlnews/2021/12/470064.shtm?id=470064