博舍

【中国科学报】人工智能伦理迈向全球共识新征程 人工智能伦理的现状是什么

【中国科学报】人工智能伦理迈向全球共识新征程

日前,联合国教科文组织(UNESCO)正式发布《人工智能伦理建议书》(以下简称《建议书》),这是关于人工智能伦理的首份全球性规范文书。 

作为UNESCO人工智能伦理特设专家组成员,中科院自动化研究所中英人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅参与了《建议书》的起草与修改。 

曾毅在接受《中国科学报》采访时表示,“《建议书》是目前全世界在政府层面达成的最广泛的共识,是全球人工智能发展的共同纲领,将为进一步形成人工智能伦理有关的国际标准、国际法等提供强有力的参考。” 

走向全球共识 

隐私、安全、公平、对人类的潜在风险……人工智能在飞速发展的同时,也给社会带来了根本性的挑战。 

虽然不同国家、政府间组织、科研和产业界已经发布了不少关于人工智能发展、伦理与治理原则,但这些原则并没有形成统一观念,人工智能伦理亟待达成全球共识。 

UNESCO总干事阿祖莱在《建议书》发布会上表示,“我们呼吁所有的成员国立即行动起来开始实施这份建议书。民众、企业等全社会都应当行动起来。这项工作已经开始了,20余个国家已经表态当《建议书》被采纳后,将受《建议书》的启发开启评估。UNESCO将推进务实的评估落地工作。” 

此次发布的《建议书》的核心是价值观、伦理原则及相关的政策建议、监测与评估。在价值观方面,《建议书》从尊重、保护和促进人权和基本自由以及人的尊严,环境和生态系统蓬勃发展,确保多样性和包容性,以及在和平、公正与互联的社会中共生等4部分进行了阐述。 

曾毅认为,《建议书》囊括了针对现代人工智能(人工智能作为信息处理工具和赋能技术)伦理考虑的最重要方面。 

例如,虽然大规模数据处理及算力的提升促进了现代人工智能的发展,但也带来了潜在的环境问题。 

为此,《建议书》在价值观“环境和生态系统蓬勃发展”部分指出,应减少人工智能系统对环境的影响,包括但不限于碳足迹,以确保将气候变化和环境风险因素降到最低,防止会加剧环境恶化和生态系统退化的对自然资源的不可持续开采、使用和转化。 

此外,《建议书》还考虑了不适用人工智能的场景,并在“相称性与不损害”的原则部分提出,人工智能技术本身并不一定能确保人类、环境和生态系统蓬勃发展。在有可能对人类、人权和基本自由、个别社区和整个社会,或者对环境和生态系统造成损害时,应确保落实风险评估程序并采取措施,以防止发生此类损害。 

不仅如此,《建议书》在此部分还明确提出人类应当确保在关键领域进行有意义的控制,并确保人类的决策权,并对高风险领域进行了警示。 

“和谐共生”价值观被部分采纳 

在曾毅看来,《建议书》在一定程度体现了全球不同文化的包容性思想。其中“在和平、公正与互联的社会中共生”的价值观充分体现了来自亚洲和非洲等国专家的共同愿景与贡献。 

在UNESCO特设专家组撰写草案期间,鉴于部分国家和政府间组织的人工智能原则强调自身的价值观和利益优先,曾毅提议纳入“和谐共生”的价值观。 

在曾毅看来,“和谐共生”的价值观,是倡导人类社会与人工智能技术和谐发展,人工智能赋能人类、社会、生态之间的和谐发展,号召各个国家通过人工智能促进人类命运共同体的构建。 

他告诉记者,“和谐共生”的思想在由国家新一代人工智能治理专委会制定的《新一代人工智能治理原则》以及《新一代人工智能伦理规范》中以“和谐友好”等形式和内容体现相似表述,是我国发展人工智能技术,处理技术与社会关系的总纲。 

虽然“和谐共生”的提议被来自亚洲和非洲等多国的特设专家组专家及部分政府间磋商代表所赞同,但在随后的环节,由于部分国家代表未能接受“和谐”“人类命运共同体”的提法,随后改为“在和平、公正与互联的社会中共生”,“和谐共生”的核心要义得以部分保留和采纳。 

例如,《建议书》在“在和平、公正与互联的社会中共生”的部分强调“每个人都属于一个更大的整体,当这个整体中的组成部分都能够繁荣兴旺时,整体才会蒸蒸日上”等内容。 

曾毅对此感到有些遗憾,“‘和平共生’与‘和谐共生’的意义并不完全相同。‘和谐共生’在和而不同、和舟共济的基础上还有发展的意义,倡导优化共生,而‘和平共生’这种表述难以表达求同存异,谋求发展的意义。” 

但他也表示,虽然《建议书》没有直接采纳“和谐共生”的表述,但相关思想得以保留,被各国专家认为是《建议书》中融入非西方价值观的重要体现。 

“‘和谐共生’的理念已经作为我国人工智能伦理与治理原则的特色,未来必然会成为中国对世界的贡献。”曾毅表示。 

可持续发展的共同愿景 

可持续发展目标是联合国各机构力推的全球发展共同愿景,我国发布的《新一代人工智能治理原则》以及《新一代人工智能伦理规范》都将可持续发展作为新一代人工智能的总体愿景和赋能全球人工智能发展的重要途径。然而很多国家在人工智能发展和伦理原则中并没有明确提出可持续性。 

因此,在《建议书》原则部分的撰写阶段,曾毅提出,虽然可持续的理念隐含在文本中的若干方面,但作为全球共同愿景,发展人工智能必须赋能可持续发展目标的实现,同时还要密切关注人工智能应用于可持续发展相关目标领域时,是否带来阻碍该目标实现的风险,寻求发展与治理的协同。“‘可持续’应当作为原则明确列入《建议书》。” 

最终,该意见被《建议书》不同阶段广泛接受,并在政策部分,特别针对环境和生态系统领域如何通过人工智能赋能实现可持续性给出了具体建议。 

实际上,除了参与起草和修改《建议书》,曾毅还在UNESCO组织的区域性专家咨询会上代表UNESCO特设专家组向亚太地区各国政府专家代表宣讲了《建议书》草案,并作为政府间专家磋商的中方专家代表参加磋商。 

曾毅告诉记者,起草和宣讲《建议书》时,他从未感到紧张,因为在那个阶段,他的角色更多的是贡献学术观点的独立的学者。但在政府间代表磋商阶段,特别是被称为“成员国中国代表”时,他倍感责任重大。 

目前,UNESCO正在依据《建议书》建立伦理评估工具和针对国家人工智能伦理完备指数评估的辅助系统,以敦促和帮助各国落实伦理规范。 

在曾毅看来,人工智能的国际协作是通过技术赋能助力实现人类命运共同体,而人工智能伦理与治理的国际交流与协作是确保人工智能国际合作能够达成共识,并持续推进的基石。 

“因此,十分有必要推进形成由类似于UNESCO这样的政府间机构、各国政府、学术界、产业、公众紧密交互的多利益相关方人工智能治理体系,通过深度协同扩大共识、避免误解、减小分歧,确保人工智能的全球发展及其治理最终促进人类和生态的整体协同发展。”曾毅表示。 

 

中国社会科学杂志社

当前,人工智能被深度应用于社会的各个领域,推动了社会生产效率的整体提升。然而,作为一种具有开放性、颠覆性但又远未成熟的技术,人工智能在带来高效生产与便利生活的同时,不可避免地对现有伦理关系与社会结构造成冲击,且已引发不少伦理冲突与法律问题。在技术快速更新的时代,如何准确把握时代变迁的特质,深刻反思人工智能引发的伦理风险,提出具有针对性、前瞻性的应对策略,是摆在我们面前的重大时代课题。

技术伦理风险

技术是一把双刃剑,其在推动社会进步的同时,也在很大程度上带来了技术风险。人工智能技术也是如此。现阶段,人工智能的技术伦理风险主要体现在以下三个方面。

人工智能的设计风险。设计是人工智能的逻辑起点,设计者的主体价值通过设计被嵌入人工智能的底层逻辑之中。倘若人工智能设计者在设计之初,秉持错误的价值观或将相互冲突的道德准则嵌入人工智能之中,那么在实际运行的过程中便很有可能对使用者生命、财产安全等带来威胁。

人工智能的算法风险。算法是人工智能的核心要素,具备深度学习特性的人工智能算法能够在运行过程中自主调整操作参数和规则,形成“算法黑箱”,使决策过程不透明或难以解释,从而影响公民的知情权及监督权,造成传统监管的失效。人工智能算法可能在不易察觉或证明的情况下,利用算法歧视或算法合谋侵害消费者的正当权益,进而扰乱市场经济秩序和造成不公平竞争。近年来被广泛曝光的“大数据杀熟”,正是这一风险的具体体现。

人工智能的数据安全风险。隐私权是人的一项基本权利,隐私的保护是现代文明的重要体现。但在众多的人工智能应用中,海量的个人数据被采集、挖掘、利用,尤其是涉及个人生物体征、健康、家庭、出行等的敏感信息。公民的隐私保护面临巨大挑战,人工智能所引发的隐私泄露风险已被推到风口浪尖。而不少隐私泄露事件的发生,也在一定程度上加深了公众对人工智能广泛应用的担忧。隐私保护与人工智能的协调发展,已成为当前亟待解决的问题。

社会伦理挑战

人工智能不仅有着潜在的、不可忽视的技术伦理风险,伴随数字化的飞速发展,人工智能对现有社会结构及价值观念的冲击亦愈发明显。人类社会的基本价值,如尊严、公平、正义等,也正因此面临挑战。

人工智能的发展对人类道德主体性的挑战。2017年智能机器人索菲亚被授予沙特阿拉伯王国公民身份,这引发了许多人对人工智能挑战人类主体性的担忧。通常人被认为是唯一的道德主体,人的道德主体性的依据在于人的某些精神特点(如意识、思维)。当前,人工智能虽仍处于弱人工智能阶段,还无法形成自我意识,但是,智能机器人不仅在储存、传输、计算等多方面的能力超越了人脑,而且借助材料学等现代技术,智能机器人可能在外形上“比人更像人”,甚至拥有更丰富的情感(比如索菲亚能够模拟62种面部表情)。这样的智能机器人究竟是否是“人”?是否应确立为道德主体?如果赋予人工智能主体资格,那么其究竟是一种与人类对等的主体,还是一种被限制的主体?这些问题表明:人工智能对人类道德主体性的挑战,不只是电影小说中的浪漫想象,而是已日益成为一种现实风险。

人工智能的发展对社会整体公平正义的挑战。首先,人工智能的发展可能加剧社会的贫富差距。由于年龄、所在地区、从事行业、教育水平等的差异,人们接触人工智能的机会并不均等,实际使用人工智能的能力并不相同,这就造成了“数字鸿沟”现象。“数字鸿沟”与既有的城乡差别、工农差别、脑体差别等叠加在一起,进一步扩大了贫富差距,影响了社会发展的公平性。其次,人工智能的发展可能引发结构性失业大潮。由于智能机器相较于人类工人有着稳定、高效等优势,越来越多的人类工人正在被智能机器所取代,成为赫拉利(YuvalNoahHarari)在《未来简史》中所谓的“无用阶级”。麦肯锡全球研究所的研究数据显示,到2030年,全球将有8亿人因工作流程的智能化、自动化而失去工作。虽然人工智能的发展也会带来新的工作岗位,但是由于“数字鸿沟”的存在,不少人并不能找到新的工作,结构性失业大潮可能汹涌而至。这将成为激化社会矛盾、破坏社会稳定、挑战社会公平正义的又一重大潜在风险。

应对防范策略

技术伦理风险与社会伦理挑战的图景展示表明,人工智能“安全、可靠、可控”的良性发展依然任重道远。对于人工智能风险、挑战的应对防范,事关未来社会的发展方向与人类整体的前途命运,需要我们运用哲学的反思、批判,作出审慎恰当的抉择。

确立人工智能发展的基本价值原则。面对风险、挑战,我们应当避免马尔库塞(HerbertMarcuse)所说的“技术拜物教”倾向,要将伦理、道德等价值要素纳入到人工智能发展的内在考量之中,尽快构建起具有广泛共识的人工智能伦理体系。应确立如下基本价值原则,作为建构人工智能伦理体系的“阿基米德支点”。一是人本原则。人工智能始终是“属人”的造物,是为增进人类的福祉和利益而被创造出来的。无论人工智能有多么接近“图灵奇点”,也不应改变其属人性。人本原则是人工智能研发、应用的最高价值原则。二是公正原则。人工智能的发展要以绝大多数人的根本利益为归趋,不能片面地遵循“资本的逻辑”与“技术的逻辑”,坐视“数字鸿沟”的扩大,而应当让每一个人都拥有平等接触、使用人工智能的机会,从而使绝大多数人都能从人工智能的发展与应用中受益。三是责任原则。明晰道德责任,对于防范和治理人工智能伦理风险具有重要意义。要加强人工智能设计、研发、应用和维护等各个环节的责任伦理建设,尤其要注意设计者、开发者的道义责任感培养,明确各方主体的权利、义务和责任,建立健全完备、有效的人工智能事故追究问责机制。

建立人工智能发展的具体伦理规范。在确立人工智能伦理基本原则的同时,还需要制定人工智能产品设计者、开发者及使用者的具体伦理规范与行为守则,从源头到下游进行规范与引导。针对人工智能的重点领域,要研究具体细化的伦理准则,形成具有可操作性的规范和建议。应当加强教育宣传,推动人工智能伦理规范共识的形成。进一步,可以将取得广泛共识的伦理规范嵌入于算法之中,避免人工智能运行过程中的“算法歧视”与“算法欺诈”问题。此外,要充分发挥伦理审查委员会及其相关组织的作用,持续修订完善《新一代人工智能伦理规范》,定期针对新业态、新应用评估伦理风险,促进人工智能伦理规范的与时俱进。

健全人工智能发展的制度保障体系。在社会层面,应加大对“数字弱势群体”的政策帮扶,如税收减免、财政补贴等,确保人工智能发展的共同富裕方向。面对可能到来的结构性失业问题,可以为劳动者提供持续的终身教育和职业培训。在法律层面,应积极推动《个人信息保护法》《数据安全法》的有效实施,建立对人工智能技术滥用与欺诈的处罚细则,逐步加快《人工智能法》的立法进程。在行业层面,应加强人工智能行业自律体系建设。建立并充分发挥伦理委员会的审议、监督作用,加强国际合作,推动人工智能行业发展朝着“安全、可靠、可控”的方向健康发展。

(作者单位:南京大学哲学系)

人工智能伦理问题的现状分析与对策

0分享至

摘要:

人工智能(AI)是第四次产业革命的核心,但也为伦理道德规范和社会治理带来了挑战。文章在阐释当前人工智能伦理风险的基础上,分析了当前对人工智能伦理准则、治理原则和治理进路的一些共识,提出了以“共建共治共享”为指导理论,逐渐建设形成包含教育改革、伦理规范、技术支撑、法律规制、国际合作在内的多维度伦理治理体系等对策建议。

人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。

2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。

2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。

2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。

1当前人工智能伦理问题

伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。

人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。

信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。

然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。

计算机伦理学创始人Moore将伦理智能体分为4类:

1.伦理影响智能体(对社会和环境产生伦理影响);

2.隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);

3.显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);

4.完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。

当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。

近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。

当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。

例如:

1.人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。

2.人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。

3.人工智能的滥用可能威胁公民隐私权、个人信息权。

4.深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。

5.信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。

6.人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。

7.算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。

8.人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。

9.由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。

10.人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……

人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。

1.人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。

2.人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。

关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。

2人工智能伦理准则、治理原则及进路

当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。

伦理准则

近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。

近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理3个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。

治理原则

美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。

习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。

近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。

一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。

另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。

治理进路

在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。

“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。

“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。

我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。

3我国人工智能伦理治理对策

人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。

教育改革

教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。

为更好地支撑人工智能发展和治理,应从4个方面进行完善:

1.普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;

2.在科技工作者中加强人工智能伦理教育和职业伦理培训;

3.为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;

4.研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。

伦理规范

我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。

当前有5项重点工作可以开展:

1.针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。

2.在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。

3.推动科研机构和企业对人工智能伦理风险的认知和实践。

4.充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。

5.推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。

技术支撑

通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。

此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。

法律规制

法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。

国际合作

当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。

我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。

作者:张兆翔1、张吉豫2、谭铁牛1*,3

1中国科学院自动化研究所

2中国人民大学法学院

3中国科学院院士

基金项目:中国科学院学部科技伦理研究项目(XBKJLL2018001)

本文转载自微信公众号中国科学院院刊,原载于《中国科学院院刊》2021年11期

产业|工业化|数字化|人才|创新创业|颠覆性技术|科技指标|科技政策|前沿技术|知识产权|智库|

获取方法如下:

其他系列将陆续呈现,多多关注哦!

投稿邮箱:nais-research@cnais.org.cn

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

《新一代人工智能伦理规范》发布

9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。

《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。

《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。

《伦理规范》全文如下:

新一代人工智能伦理规范

为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。

第一章 总则

第一条 本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。

第二条 本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。

(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。

(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。

(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。

(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。

第三条 人工智能各类活动应遵循以下基本伦理规范。

(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。

(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助特殊群体,并根据需要提供相应替代方案。

(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。

(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。

(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。

(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。

第四条 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。

第二章 管理规范

第五条 推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。

第六条 积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。

第七条 正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。

第八条 加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。

第九条 促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。

第三章 研发规范

第十条 强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。

第十一条 提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。

第十二条 增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。

第十三条 避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

第四章 供应规范

第十四条 尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。

第十五条 加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。

第十六条 保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。

第十七条 强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。

第五章 使用规范

第十八条 提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。

第十九条 避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。

第二十条 禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。

第二十一条 及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。

第二十二条 提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。

第六章 组织实施

第二十三条 本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。

第二十四条 各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。

第二十五条 本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。

国家新一代人工智能治理专业委员会

2021年9月25日

UNESCO第41届大会审议通过《人工智能伦理问题建议书》

编者按:2021年11月24日,在刚刚闭幕的联合国教科文组织大会第41届会议上,诞生了《人工智能伦理问题建议书》。笔者尤为振奋,不光因为我们在2020年7月参与建言、向联合国教科文组织提交的关于“环境、生态系统、生物多样性应写入人工智能伦理”的建议几乎被全面采纳;也因为,这是笔者看到过的所有的关于人工智能伦理文本中最好、也最全面的一个文本。

然而,目前我国对其的报道还是非常有限。尽管这份建议书是在11月24日的会议上通过的,国内当天几乎罕有报道(中文世界就连对联合国教科文组织第41届大会的报道也是很少的)。次日,也就是11月25日,UNESCO在巴黎在举行新闻发布会,介绍正式通过的这个首份人工智能伦理问题全球性协议,然后11月26日中国新闻网、新华社、央视等国内主流媒体才有简短的报道。截至2021年11月27日晚上、也就是这份建议书通过后的72小时之后,小编看到的有限的所有的中文报道都非常简短。而事实上,这份建议书文本非常全面,对于全球的人工智能的发展影响将是极为深远的。

从内容和词频上看,2021年文本大量提升了生态环境相关的内容。笔者盘点了一番:“生物多样性”出现2次(去年草案初稿中出现0次),“生态系统”出现31次(去年草案初稿中约5次);“环境”一词出现约59次(去年草案初稿中出现23次);“动物福利”出现1次(之前0次);“碳足迹”出现2次。可以说,对比2021年的文本和2020年的文本,我们绿会的建议几乎得到了较为全面的采纳。

此外,本文尤其强调了“人工智能系统的整个生命周期”,笔者认为,这一点尤为值得重视。在全文中出现51次。所谓人工智能系统整个生命周期,该文件将其定义为“从研究、设计、开发到配置和使用等各阶段,包括维护、运行、交易、融资、监测和评估、验证、使用终止、拆卸和终结。”

另外,难能可贵的一点是,该建议书明确表示,并不试图对人工智能作出唯一的定义。它认为,这种定义需要随着技术的发展与时俱进。因此,该文本旨在探讨人工智能系统中具有核心伦理意义的特征。笔者注意到,此次会议决定,会员国关于其为实施《人工智能伦理问题建议书》所采取措施的报告周期为四年一次。也就是说,在联合国教科文组织大会43届会议(四年后)上,将讨论《人工智能伦理问题建议书》实施情况的第一份综合报告。

为了让国内同胞们能尽快看到文本,笔者从联合国教科文组织的官网发布的提交给41届大会审议的材料中提取了中文文字版。相信这份文件对我国人工智能学界、政策制定者、产业界都有不小的参考价值,绿会融媒在此中文首发。事实上这篇文章的排版花了小编超过四个小时,不光是排版较难、也因花了点世界对其中文文本中的个别问题译法进行了查证。以下文本来自于UNESCO官网,全文约27000字。分享如下,供读者参考。

编者按/王豁审/绿会国际部 编/angel

人工智能伦理问题建议书。图源/unesco

《人工智能伦理问题建议书》草案文本

(注:已在联合国教科文组织第41届大会上获得会员国通过)

序言

联合国教育、科学及文化组织(教科文组织)大会于2021年11月9日至24日在巴黎召开第四十一届会议,

认识到人工智能(AI)从正负两方面对社会、环境、生态系统和人类生活包括人类思想具有深刻而动态的影响,部分原因在于人工智能的使用以新的方式影响着人类的思维、互动和决策,并且波及到教育、人文科学、社会科学和自然科学、文化、传播和信息,

忆及教科文组织根据《组织法》,力求通过教育、科学、文化以及传播和信息促进各国间之合作,对和平与安全作出贡献,以增进对正义、法治及所确认之世界人民均享人权与基本自由之普遍尊重,

深信在此提出的建议书,作为以国际法为依据、采用全球方法制定且注重人的尊严和人权以及性别平等、社会和经济正义与发展、身心健康、多样性、互联性、包容性、环境和生态系统保护的准则性文书,可以引导人工智能技术向着负责任的方向发展,

遵循《联合国宪章》的宗旨和原则,

考虑到人工智能技术可以对人类大有助益并惠及所有国家,但也会引发根本性的伦理关切,例如:人工智能技术可能内嵌并加剧偏见,可能导致歧视、不平等、数字鸿沟和排斥,并对文化、社会和生物多样性构成威胁,造成社会或经济鸿沟;算法的工作方式和算法训练数据应具有透明度和可理解性;人工智能技术对于多方面的潜在影响,包括但不限于人的尊严、人权和基本自由、性别平等、民主、社会、经济、政治和文化进程、科学和工程实践、动物福利以及环境和生态系统,

又认识到人工智能技术会加深世界各地国家内部和国家之间现有的鸿沟和不平等,必须维护正义、信任和公平,以便在公平获取人工智能技术、享受这些技术带来的惠益和避免受其负面影响方面不让任何国家和任何人掉队,同时认识到各国国情不同,并尊重一部分人不参与所有技术发展的意愿,

意识到所有国家都正值信息和通信技术及人工智能技术使用的加速期,对于媒体与信息素养的需求日益增长,且数字经济带来了重大的社会、经济和环境挑战以及惠益共享的机会,对于中低收入国家(LMIC)——包括但不限于最不发达国家(LDC)、内陆发展中国家(LLDC)和小岛屿发展中国家(SIDS)而言尤为如此,需要承认、保护和促进本土文化、价值观和知识,以发展可持续的数字经济,

还认识到人工智能技术具备有益于环境和生态系统的潜能,要实现这些惠益,不应忽视而是要去应对其对环境和生态系统的潜在危害和负面影响,

注意到应对风险和伦理关切的努力不应妨碍创新和发展,而是应提供新的机会,激励合乎伦理的研究和创新,使人工智能技术立足于人权和基本自由、价值观和原则以及关于道义和伦理的思考,

又忆及教科文组织大会在2019年11月第四十届会议上通过了第40C/37号决议,授权总干事“以建议书的形式编制一份关于人工智能伦理问题的国际准则性文书”,提交2021年大会第四十一届会议,

认识到人工智能技术的发展需要相应提高数据、媒体与信息素养,并增加获取独立、多元、可信信息来源的机会,包括努力减少错误信息、虚假信息和仇恨言论的风险以及滥用个人数据造成的伤害,

认为关于人工智能技术及其社会影响的规范框架应建立在共识和共同目标的基础上,以国际和国家法律框架、人权和基本自由、伦理、获取数据、信息和知识的需求、研究和创新自由、人类福祉、环境和生态系统福祉为依据,将伦理价值观和原则与同人工智能技术有关的挑战和机遇联系起来,

又认识到伦理价值观和原则可以通过发挥指引作用,帮助制定和实施基于权利的政策措施和法律规范,以期加快技术发展步伐,

又深信全球公认的、充分尊重国际法特别是人权法的人工智能技术伦理标准可以在世界各地制定人工智能相关规范方面起到关键作用,

铭记《世界人权宣言》(1948年);国际人权框架文书,包括《关于难民地位的公约》(1951年)、《就业和职业歧视公约》(1958年)、《消除一切形式种族歧视国际公约》(1965年)、《公民及政治权利国际公约》(1966年)、《经济社会文化权利国际公约》(1966年)、《消除对妇女一切形式歧视公约》(1979年)、《儿童权利公约》(1989年)和《残疾人权利公约》(2006年);《反对教育歧视公约》(1960年);《保护和促进文化表现形式多样性公约》(2005年);以及其他一切相关国际文书、建议书和宣言,又注意到《联合国发展权利宣言》(1986年);《当代人对后代人的责任宣言》(1997年);《世界生物伦理与人权宣言》(2005年);《联合国土著人民权利宣言》(2007年);2014年联合国大会关于信息社会世界峰会审查的决议(A/RES/70/125)(2015年);联合国大会关于“变革我们的世界:2030年可持续发展议程”的决议(A/RES/70/1)(2015年);《关于保存和获取包括数字遗产在内的文献遗产的建议书》(2015年);《与气候变化有关的伦理原则宣言》(2017年);《关于科学和科学研究人员的建议书》(2017年);互联网普遍性指标(2018年获得教科文组织国际传播发展计划认可),包括立足人权、开放、人人可及和多利益攸关方参与原则(2015年获得教科文组织大会认可);人权理事会关于“数字时代的隐私权”的决议(A/HRC/RES/42/15)(2019年);以及人权理事会关于“新兴数字技术与人权”的决议(A/HRC/RES/41/11)(2019年),

强调必须特别关注中低收入国家,包括但不限于最不发达国家、内陆发展中国家和小岛屿发展中国家,这些国家具备能力,但在人工智能伦理问题辩论中的代表性不足,由此引发了对于地方知识、文化多元化、价值体系以及应对人工智能技术的正负两方面影响需要实现全球公平的要求受到忽视的关切,

又意识到在人工智能技术的伦理和监管方面,目前存在许多国家政策以及由联合国相关实体、政府间组织(包括地区组织)和由私营部门、专业组织、非政府组织和科学界制定的其他框架和倡议,

还深信人工智能技术可以带来重大惠益,但实现这些惠益也会加剧围绕创新产生的矛盾冲突、知识和技术获取不对称(包括使公众参与人工智能相关议题的能力受限的数字和公民素养赤字)以及信息获取障碍、能力亦即人员和机构能力差距、技术创新获取障碍、缺乏适当的实体和数字基础设施以及监管框架(包括与数据有关的基础设施和监管框架)的问题,所有这些问题都需要解决,

强调需要加强全球合作与团结,包括通过多边主义,以促进公平获取人工智能技术,应对人工智能技术给文化和伦理体系的多样性和互联性带来的挑战,减少可能的滥用,充分发挥人工智能可能给各个领域特别是发展领域带来的潜能,确保各国人工智能战略以伦理原则为指导,

充分考虑到人工智能技术的快速发展对以合乎伦理的方式应用和治理人工智能技术以及对尊重和保护文化多样性提出了挑战,并有可能扰乱地方和地区的伦理标准和价值观,

1.通过本人工智能伦理问题建议书;

2.建议会员国在自愿基础上适用本建议书的各项规定,特别是根据各自国家的宪法实践和治理结构采取适当步骤,包括必要的立法或其他措施,依照包括国际人权法在内的国际法,使建议书的原则和规范在本国管辖范围内生效;

3.又建议会员国动员包括工商企业在内的所有利益攸关方,确保他们在实施本建议书方面发挥各自的作用;并提请涉及人工智能技术的管理部门、机构、研究和学术组织、公共、私营和民间社会机构和组织注意本建议书,使人工智能技术的开发和应用做到以健全的科学研究以及伦理分析和评估作为指导。

一、适用范围

1.本建议书述及与人工智能领域有关且属于教科文组织职责范围之内的伦理问题。建议书以能指导社会负责任地应对人工智能技术对人类、社会、环境和生态系统产生的已知和未知影响并相互依存的价值观、原则和行动构成的不断发展的整体、全面和多元文化框架为基础,将人工智能伦理作为一种系统性规范考量,并为社会接受或拒绝人工智能技术提供依据。

建议书将伦理视为对人工智能技术进行规范性评估和指导的动态基础,以人的尊严、福祉和防止损害为导向,并立足于科技伦理。

2.本建议书无意对人工智能作出唯一的定义,这种定义需要随着技术的发展与时俱进。

建议书旨在探讨人工智能系统中具有核心伦理意义的特征。因此,本建议书将人工智能系统视为有能力以类似于智能行为的方式处理数据和信息的系统,通常包括推理、学习、感知、预测、规划或控制等方面。这一方法有三个重要因素:

(a)人工智能系统是整合模型和算法的信息处理技术,这些模型和算法能够生成学习和执行认知任务的能力,从而在物质环境和虚拟环境中实现预测和决策等结果。

在设计上,人工智能系统借助知识建模和知识表达,通过对数据的利用和对关联性的计算,可以在不同程度上实现自主运行。人工智能系统可以包含若干种方法,包括但不限于:

(i)机器学习,包括深度学习和强化学习;

(ii)机器推理,包括规划、调度、知识表达和推理、搜索和优化。

人工智能系统可用于信息物理系统,包括物联网、机器人系统、社交机器人和涉及控制、感知及处理传感器所收集数据的人机交互以及人工智能系统工作环境中执行器的操作。

(b)与人工智能系统有关的伦理问题涉及人工智能系统生命周期的各个阶段,此处系指从研究、设计、开发到配置和使用等各阶段,包括维护、运行、交易、融资、监测和评估、验证、使用终止、拆卸和终结。此外,人工智能行为者可以定义为在人工智能系统生命周期内至少参与一个阶段的任何行为者,可指自然人和法人,例如研究人员、程序员、工程师、数据科学家、终端用户、工商企业、大学和公私实体等。

(c)人工智能系统引发了新型伦理问题,包括但不限于其对决策、就业和劳动、社交、卫生保健、教育、媒体、信息获取、数字鸿沟、个人数据和消费者保护、环境、民主、法治、安全和治安、双重用途、人权和基本自由(包括表达自由、隐私和非歧视)的影响。此外,人工智能算法可能复制和加深现有的偏见,从而加剧已有的各种形式歧视、偏见和成见,由此产生新的伦理挑战。其中一些问题与人工智能系统能够完成此前只有生物才能完成、甚至在有些情况下只有人类才能完成的任务有关。这些特点使得人工智能系统在人类实践和社会中以及在与环境和生态系统的关系中,可以起到意义深远的新作用,为儿童和青年的成长、培养对于世界和自身的认识、批判性地认识媒体和信息以及学会作出决定创造了新的环境。

从长远看,人工智能系统可能挑战人类特有的对于经验和能动作用的感知,在人类的自我认知、社会、文化和环境的互动、自主性、能动性、价值和尊严等方面引发更多关切。

3.秉承教科文组织世界科学知识与技术伦理委员会(COMEST)在2019年《人工智能伦理问题初步研究》中的分析,本建议书特别关注人工智能系统与教育、科学、文化、传播和信息等教科文组织核心领域有关的广泛伦理影响:

(a)教育,这是因为鉴于对劳动力市场、就业能力和公民参与的影响,生活在数字化社会需要新的教育实践、伦理反思、批判性思维、负责任的设计实践和新的技能。

(b)科学,系指最广泛意义上的科学,包括从自然科学、医学到社会科学和人文科学等所有学术领域,这是由于人工智能技术带来了新的研究能力和方法,影响到我们关于科学认识和解释的观念,为决策创建了新的基础。

(c)文化特性和多样性,这是由于人工智能技术可以丰富文化和创意产业,但也会导致文化内容的供应、数据、市场和收入更多地集中在少数行为者手中,可能对语言、媒体、文化表现形式、参与和平等的多样性和多元化产生负面影响。

(d)传播和信息,这是由于人工智能技术在处理、组织和提供信息方面起到日益重要的作用;很多现象引发了与信息获取、虚假信息、错误信息、仇恨言论、新型社会叙事兴起、歧视、表达自由、隐私、媒体与信息素养等有关的问题,自动化新闻、通过算法提供新闻、对社交媒体和搜索引擎上的内容进行审核和策管只是其中几个实例。

4.本建议书面向会员国,会员国既是人工智能行为者,又是负责制定人工智能系统整个生命周期的法律和监管框架并促进企业责任的管理部门。此外,建议书为贯穿人工智能系统生命周期的伦理影响评估奠定了基础,从而为包括公共和私营部门在内的所有人工智能行为者提供伦理指南。

二、宗旨和目标

5.本建议书旨在提供基础,让人工智能系统可以造福人类、个人、社会、环境和生态系统,同时防止危害。它还旨在促进和平利用人工智能系统。

6.本建议书的目的是在全球现有人工智能伦理框架之外,再提供一部全球公认的规范性文书,不仅注重阐明价值观和原则,而且着力于通过具体的政策建议切实落实这些价值观和原则,同时着重强调包容、性别平等以及环境和生态系统保护等问题。

7.由于与人工智能有关的伦理问题十分复杂,需要国际、地区和国家各个层面和各个部门的众多利益攸关方开展合作,故而本建议书的宗旨是让利益攸关方能够在全球和文化间对话的基础上共同承担责任。

8.本建议书的目标如下:

(a)依照国际法,提供一个由价值观、原则和行动构成的普遍框架,指导各国制定与人工智能有关的立法、政策或其他文书;

(b)指导个人、团体、社群、机构和私营公司的行动,确保将伦理规范嵌入人工智能系统生命周期的各个阶段;

(c)在人工智能系统生命周期的各个阶段保护、促进和尊重人权和基本自由、人的尊严和平等,包括性别平等;保障当代和后代的利益;保护环境、生物多样性和生态系统;尊重文化多样性;

(d)推动多利益攸关方、多学科和多元化对话和建立共识,讨论与人工智能系统有关的伦理问题;

(e)促进对人工智能领域进步和知识的公平获取以及惠益共享,特别关注包括最不发达国家、内陆发展中国家和小岛屿发展中国家在内的中低收入国家的需求和贡献。

三、价值观和原则

9.首先,人工智能系统生命周期的所有行为者都应尊重下文所载的价值观和原则,并在必要和适当的情况下,通过修订现行的和制定新的法律、法规和业务准则来促进这些价值观和原则。这必须遵守国际法,包括《联合国宪章》和会员国的人权义务,并应符合国际商定的社会、政治、环境、教育、科学和经济可持续性目标,例如联合国可持续发展目标(SDG)。

10.价值观作为催人奋进的理想,在制定政策措施和法律规范方面发挥着强大作用。下文概述的一系列价值观可以激发理想的行为并是确立原则的基础,而原则更为具体地阐述作为其根本的价值观,以便更易于在政策声明和行动中落实这些价值观。

11.下文概述的所有价值观和原则本身都是可取的,但在任何实际情况下这些价值观和原则之间都可能会有矛盾。在特定情况下,需要根据具体情况进行评估以管控潜在的矛盾,同时考虑到相称性原则并尊重人权和基本自由。在所有情况下,可能对人权和基本自由施加的任何限制均必须具有合法基础,而且必须合理、必要和相称,符合各国依据国际法所承担的义务。要做到明智而审慎地处理这些情况,通常需要与广泛的相关利益攸关方合作,同时利用社会对话以及伦理审议、尽职调查和影响评估。

12.人工智能系统生命周期的可信度和完整性对于确保人工智能技术造福人类、个人、社会、环境和生态系统并且体现出本建议书提出的价值观和原则至关重要。在采取适当措施降低风险时,人们应有充分理由相信人工智能系统能够带来个人利益和共享利益。具有可信度的一个基本必要条件是,人工智能系统在整个生命周期内都受到相关利益攸关方适当的全面监测。由于可信度是本文件所载各项原则得到落实的结果,本建议书提出的政策行动建议均旨在提升人工智能系统生命周期各个阶段的可信度。

3.1价值观

【尊重、保护和促进人权和基本自由以及人的尊严】

13.每个人与生俱来且不可侵犯的尊严构成了人权和基本自由这一普遍、不可分割、不可剥夺、相互依存又彼此相关的体系的基础。因此,尊重、保护和促进包括国际人权法在内的国际法确立的人的尊严和权利,在人工智能系统的整个生命周期内都至关重要。人的尊严系指承认每个人固有和平等的价值,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。

14.在人工智能系统生命周期的任何阶段,任何人或人类社群在身体、经济、社会、政治、文化或精神等任何方面,都不应受到损害或被迫居于从属地位。在人工智能系统的整个生命周期内,人类生活质量都应得到改善,而“生活质量”的定义只要不侵犯或践踏人权和基本自由或人的尊严,应由个人或群体来决定。

15.在人工智能系统的整个生命周期内,人会与人工智能系统展开互动,接受这些系统提供的帮助,例如照顾弱势者或处境脆弱群体,包括但不限于儿童、老年人、残障人士或病人。

在这一互动过程中绝不应将人物化,不应以其他方式损害人的尊严,也不应侵犯或践踏人权和基本自由。

16.在人工智能系统的整个生命周期内,必须尊重、保护和促进人权和基本自由。各国政府、私营部门、民间社会、国际组织、技术界和学术界在介入与人工智能系统生命周期有关的进程时,必须尊重人权文书和框架。新技术应为倡导、捍卫和行使人权提供新手段,而不是侵犯人权。

【环境和生态系统蓬勃发展】

17.应在人工智能系统的整个生命周期内确认、保护和促进环境和生态系统的蓬勃发展。

此外,环境和生态系统是关乎人类和其他生物能否享受人工智能进步所带来惠益的必要条件。

18.参与人工智能系统生命周期的所有行为者都必须遵守适用的国际法以及国内立法、标准和惯例,例如旨在保护和恢复环境和生态系统以及促进可持续发展的预防措施。这些行为者应减少人工智能系统对环境的影响,包括但不限于碳足迹,以确保将气候变化和环境风险因素降到最低,防止会加剧环境恶化和生态系统退化的对自然资源的不可持续开采、使用和转化。

【确保多样性和包容性】

19.在人工智能系统的整个生命周期内,应依照包括人权法在内的国际法,确保尊重、保护和促进多样性和包容性。为此,可以促进所有个人或群体的积极参与,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。

20.对于生活方式的选择范围、信仰、意见、表达形式或个人经验,包括对于人工智能系统的任选使用以及这些架构的共同设计,在人工智能系统生命周期的任何阶段都不应受到限制。

21.此外,应作出努力,包括开展国际合作,以克服并绝不利用影响到社区的缺乏必要技术基础设施、教育和技能以及法律框架的情况,特别是在中低收入国家、最不发达国家、内陆发展中国家和小岛屿发展中国家中。

【生活在和平、公正与互联的社会中】

22.人工智能行为者应为确保建设和平与公正的社会发挥参与和促进作用,这种社会的根基是惠及全民、符合人权和基本自由的相互关联的未来。在和平与公正的社会中生活的价值观表明,人工智能系统在整个生命周期内都有可能为所有生物之间及其与自然环境之间的相互关联作出贡献。

23.人与人之间相互联系的概念是基于这样一种认识,即每个人都属于一个更大的整体,当这个整体中的组成部分都能够繁荣兴旺时,整体才会蒸蒸日上。在和平、公正与互联的社会中生活,需要一种有机、直接、出自本能的团结纽带,其特点是不懈地寻求和平关系,倾向于在最广泛的意义上关爱他人和自然环境。

24.这一价值观要求在人工智能系统的整个生命周期内促进和平、包容与正义、公平和相互联系,人工智能系统生命周期的各种进程不得隔离或物化人类和社区或者削弱其自由、自主决策和安全,不得分裂个人和群体或使之相互对立,也不得威胁人类、其他生物和自然环境之间的共存。

3.2原则

【相称性和不损害】

25.应该认识到,人工智能技术本身并不一定能确保人类、环境和生态系统蓬勃发展。况且,与人工智能系统生命周期有关的任何进程都不得超出实现合法目的或目标所需的范围,并应切合具体情况。在有可能对人类、人权和基本自由、个别社区和整个社会,或者对环境和生态系统造成损害时,应确保落实风险评估程序并采取措施,以防止发生此类损害。

26.应从以下方面证明选择使用人工智能系统和选用哪种人工智能方法的合理性:(a)所选择的人工智能方法对于实现特定合法目标应该是适当的和相称的;(b)所选择的人工智能方法不得违背本文件提出的基本价值观,特别是其使用不得侵犯或践踏人权;(c)人工智能方法应切合具体情况,并应建立在严谨的科学基础上。在所涉决定具有不可逆转或难以逆转的影响或者在涉及生死抉择的情况下,应由人类作出最终决定。人工智能系统尤其不得用于社会评分或大规模监控目的。

【安全和安保】

27.在人工智能系统的整个生命周期内,应避免并解决、预防和消除意外伤害(安全风险)以及易受攻击的脆弱性(安保风险),确保人类、环境和生态系统的安全和安保。开发可持续和保护隐私的数据获取框架,促进利用优质数据更好地训练和验证人工智能模型,便可以实现有安全和安保保障的人工智能。

【公平和非歧视】

28.人工智能行为者应根据国际法,促进社会正义并保障一切形式的公平和非歧视。这意味着要采用包容性办法确保人工智能技术的惠益人人可得可及,同时又考虑到不同年龄组、文化体系、不同语言群体、残障人士、女童和妇女以及处境不利、边缘化和弱势群体或处境脆弱群体的具体需求。会员国应努力让包括地方社区在内的所有人都能够获取提供本地相关内容和服务且尊重多语言使用和文化多样性的人工智能系统。会员国应努力消除数字鸿沟,并确保对人工智能发展的包容性获取和参与。在国家层面,会员国应努力在人工智能系统生命周期的准入和参与问题上促进城乡之间的公平,以及所有人之间的公平,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。在国际层面,技术最先进的国家有责任支持最落后的国家,确保共享人工智能技术的惠益,使得后者能够进入和参与人工智能系统生命周期,从而推动建设一个在信息、传播、文化、教育、研究、社会经济和政治稳定方面更加公平的世界秩序。

29.人工智能行为者应尽一切合理努力,在人工智能系统的整个生命周期内尽量减少和避免强化或固化带有歧视性或偏见的应用程序和结果,确保人工智能系统的公平。对于带有歧视性和偏见的算法决定,应提供有效的补救办法。

30.此外,在人工智能系统的整个生命周期内,需要解决国家内部和国家之间的数字和知识鸿沟,包括根据相关的国家、地区和国际法律框架解决技术和数据获取及获取质量方面的鸿沟,以及在连接性、知识和技能以及受影响社区的切实参与方面的鸿沟,以便让每个人都得到公平待遇。

【可持续性】

31.可持续社会的发展,有赖于在人类、社会、文化、经济和环境等方面实现一系列复杂的目标。人工智能技术的出现可能有利于可持续性目标,但也可能阻碍这些目标的实现,这取决于处在不同发展水平的国家如何应用人工智能技术。因此,在就人工智能技术对人类、社会、文化、经济和环境的影响开展持续评估时,应充分考虑到人工智能技术对于作为一套涉及多方面的动态目标(例如目前在联合国可持续发展目标中认定的目标)的可持续性的影响。

【隐私权和数据保护】

32.隐私权对于保护人的尊严、自主权和能动性不可或缺,在人工智能系统的整个生命周期内必须予以尊重、保护和促进。重要的是,人工智能系统所用数据的收集、使用、共享、归档和删除方式,必须符合国际法,契合本建议书提出的价值观和原则,同时遵守相关的国家、地区和国际法律框架。

33.应在国家或国际层面采用多利益攸关方办法,建立适当的数据保护框架和治理机制,将其置于司法系统保护之下,并在人工智能系统的整个生命周期内予以保障。数据保护框架和任何相关机制应参鉴有关收集、使用和披露个人数据以及数据主体行使其权利的国际数据保护原则和标准,同时确保对个人数据的处理具有合法的目的和有效的法律依据,包括取得知情同意。

34. 需要对算法系统开展充分的隐私影响评估,其中包括使用算法系统的社会和伦理考量以及通过设计方法对于隐私的创新使用。人工智能行为者需要确保他们对人工智能系统的设计和实施负责,以确保个人信息在人工智能系统的整个生命周期内受到保护。

【人类的监督和决定】

35.会员国应确保始终有可能将人工智能系统生命周期的任何阶段以及与人工智能系统有关的补救措施的伦理和法律责任归属于自然人或现有法人实体。因此,人类监督不仅指个人监督,在适当情况下也指范围广泛的公共监督。

36.在某些情况下,出于效率性的考虑,人类有时选择依赖人工智能系统,但是否在有限情形下出让控制权依然要由人类来决定,这是由于人类在决策和行动上可以借助人工智能系统,但人工智能系统永远无法取代人类的最终责任和问责。一般而言,生死攸关的决定不应让给人工智能系统来作。

【透明度和可解释性】

37.人工智能系统的透明度和可解释性往往是确保人权、基本自由和伦理原则得到尊重、保护和促进的必要先决条件。透明度是相关国家和国际责任制度有效运作的必要因素。缺乏透明度还可能削弱对根据人工智能系统产生的结果所作决定提出有效质疑的可能性,进而可能侵犯获得公平审判和有效补救的权利,并限制这些系统的合法使用领域。

38.在人工智能系统的整个生命周期内都需要努力提高人工智能系统(包括那些具有域外影响的系统)的透明度和可解释性,以支持民主治理,但透明度和可解释性的程度应始终切合具体情况并与其影响相当,因为可能需要在透明度和可解释性与隐私、安全和安保等其他原则之间取得平衡。在所涉决定系参考或依据人工智能算法作出的情况下,包括在所涉决定关乎民众安全和人权的情况下,民众应该被充分告知,并且在此类情况下有机会请求相关人工智能行为者或公共机构提供解释性信息。此外,对于影响其权利和自由的决定,个人应能够了解据以作出该决定的理由,并可以选择向能够审查和纠正该决定的私营公司或公共机构指定工作人员提出意见。对于由人工智能系统直接提供或协助提供的产品或服务,人工智能行为者应以适当和及时的方式告知用户。

39.从社会—技术角度来看,提高透明度有助于建设更加和平、公正、民主和包容的社会。提高透明度有利于开展公众监督,这可以减少腐败和歧视,还有助于发现和防止对人权产生的负面影响。透明度的目的是为相关对象提供适当的信息,以便他们理解和增进信任。具体到人工智能系统,透明度可以帮助人们了解人工智能系统各个阶段是如何按照该系统的具体环境和敏感度设定的。透明度还包括深入了解可以影响特定预测或决定的因素,以及了解是否具备适当的保证(例如安全或公平措施)。在存在会对人权产生不利影响的严重威胁的情况下,透明度要求可能还包括共享代码或数据集。

40. 可解释性是指让人工智能系统的结果可以理解,并提供阐释说明。人工智能系统的可解释性也指各个算法模块的输入、输出和性能的可解释性及其如何促成系统结果。因此,可解释性与透明度密切相关,结果和导致结果的子过程应以可理解和可追溯为目标,并且应切合具体情况。人工智能行为者应致力于确保开发出的算法是可以解释的。就对终端用户所产生的影响不是暂时的、容易逆转的或低风险的人工智能应用程序而言,应确保对导致所采取行动的任何决定作出有意义的解释,以便使这一结果被认为是透明的。

41.透明度和可解释性与适当的责任和问责措施以及人工智能系统的可信度密切相关。

【责任和问责】

42.人工智能行为者和会员国应根据国家法律和国际法,特别是会员国的人权义务,以及人工智能系统整个生命周期的伦理准则,包括在涉及其有效疆域和实际控制范围内的人工智能行为者方面,尊重、保护和促进人权和基本自由,并且还应促进对环境和生态系统的保护,同时承担各自的伦理和法律责任。以任何方式基于人工智能系统作出的决定和行动,其伦理责任和义务最终都应由人工智能行为者根据其在人工智能系统生命周期中的作用来承担。

43.应建立适当的监督、影响评估、审计和尽职调查机制,包括保护举报者,确保在人工智能系统的整个生命周期内对人工智能系统及其影响实施问责。技术和体制方面的设计都应确保人工智能系统(的运行)可审计和可追溯,特别是要应对与人权规范和标准之间的冲突以及对环境和生态系统福祉的威胁。

【认识和素养】

44.应通过由政府、政府间组织、民间社会、学术界、媒体、社区领袖和私营部门共同领导并顾及现有的语言、社会和文化多样性的开放且可获取的教育、公民参与、数字技能和人工智能伦理问题培训、媒体与信息素养及培训,促进公众对于人工智能技术和数据价值的认识和理解,确保公众的有效参与,让所有社会成员都能够就使用人工智能系统作出知情决定,避免受到不当影响。

45.了解人工智能系统的影响,应包括了解、借助以及促进人权和基本自由。这意味着在接触和理解人工智能系统之前,应首先了解人工智能系统对人权和权利获取的影响,以及对环境和生态系统的影响。

46.对数据的使用必须尊重国际法和国家主权。这意味着各国可根据国际法,对在其境内生成或经过其国境的数据进行监管,并采取措施,力争在依照国际法尊重隐私权以及其他人权规范和标准的基础上对数据进行有效监管,包括数据保护。

47.不同利益攸关方对人工智能系统整个生命周期的参与,是采取包容性办法开展人工智能治理、使惠益能够为所有人共享以及推动可持续发展的必要因素。利益攸关方包括但不限于政府、政府间组织、技术界、民间社会、研究人员和学术界、媒体、教育、政策制定者、私营公司、人权机构和平等机构、反歧视监测机构以及青年和儿童团体。应采用开放标准和互操作性原则,以促进协作。应采取措施,兼顾技术的变化和新利益攸关方群体的出现,并便于边缘化群体、社区和个人切实参与,同时酌情尊重土著人民对其数据的自我管理。

四、政策行动领域

48.以下政策领域所述的政策行动是对本建议书提出的价值观和原则的具体落实。主要行动是会员国出台有效措施,包括政策框架或机制等,并通过开展多种行动,例如鼓励所有利益攸关方根据包括联合国《工商企业与人权指导原则》在内的准则制定人权、法治、民主以及伦理影响评估和尽职调查工具,确保私营公司、学术和研究机构以及民间社会等其他利益攸关方遵守这些框架或机制。此类政策或机制的制定过程应包括所有利益攸关方并应考虑到各会员国的具体情况和优先事项。教科文组织可以作为合作伙伴,支持会员国制定、监测和评估政策机制。

49.教科文组织认识到,各会员国在科学、技术、经济、教育、法律、规范、基础设施、社会、文化和其他方面,处于实施本建议书的不同准备阶段。需要指出的是,这里的“准备”是一种动态。因此,为切实落实本建议书,教科文组织将:(1)制定准备状态评估方法,协助有关会员国确定其准备进程各个方面在特定时刻的所处状态;(2)确保支持有关会员国制定教科文组织人工智能技术伦理影响评估(EIA)方法,分享最佳做法、评估准则、其他机制和分析工作。

【政策领域1:伦理影响评估】

50.会员国应出台影响评估(例如伦理影响评估)框架,以确定和评估人工智能系统的惠益、关切和风险,并酌情出台预防、减轻和监测风险的措施以及其他保障机制。此种影响评估应根据本建议书提出的价值观和原则,确定对人权和基本自由(特别是但不限于边缘化和弱势群体或处境脆弱群体的权利、劳工权利)、环境和生态系统产生的影响以及伦理和社会影响,并促进公民参与。

51.会员国和私营公司应建立尽职调查和监督机制,以确定、防止和减轻人工智能系统对尊重人权、法治和包容性社会产生的影响,并说明如何处理这些影响。会员国还应能够评估人工智能系统对贫困问题产生的社会经济影响,确保人工智能技术在目前和未来的大规模应用不会加剧各国之间以及国内的贫富差距和数字鸿沟。为做到这一点,尤其应针对信息(包括私营实体掌握的涉及公共利益的信息)获取,实行可强制执行的透明度协议。会员国、私营公司和民间社会应调查基于人工智能的建议对人类决策自主权的社会学和心理学影响。对于经确认对人权构成潜在风险的人工智能系统,在投放市场之前,人工智能行为者应对其进行广泛测试,包括必要时,作为伦理影响评估的一部分,在真实世界的条件下进行测试。

52.会员国和工商企业应采取适当措施,监测人工智能系统生命周期的各个阶段,包括用于决策的算法的性能、数据以及参与这一过程的人工智能行为者,特别是在公共服务领域和需要与终端用户直接互动的领域,以配合开展伦理影响评估。人工智能系统评估的伦理方面应包含会员国的人权法义务。

53.各国政府应采用监管框架,其中特别针对公共管理部门提出人工智能系统伦理影响评估程序,以预测后果,减少风险,避免有害后果,促进公民参与并应对社会挑战。评估还应确立能够对算法、数据和设计流程加以评估并包括对人工智能系统的外部审查的适当监督机制,包括确定可审计性、可追溯性和可解释性。伦理影响评估应透明,并酌情向公众开放。

此类评估还应具备多学科、多利益攸关方、多文化、多元化和包容等特性。应要求公共管理部门引入适当的机制和工具,监测这些部门实施和/或部署的人工智能系统。

54.会员国应确保人工智能治理机制具备包容性、透明性、多学科、多边(包括跨界减轻损害和作出补救的可能性)和多利益攸关方等特性。特别是,治理应包括预测、有效保护、监测影响、执行和补救等方面。

55.会员国应通过实施有力的执行机制和补救行动,确保调查并补救人工智能系统造成的损害,从而确保人权和基本自由以及法治在数字世界与现实世界中同样得到尊重。此类机制和行动应包括私营公司和公营公司提供的补救机制。为此,应提升人工智能系统的可审计性和可追溯性。此外,会员国应加强履行这项承诺的机构能力,并应与研究人员和其他利益攸关方合作调查、防止并减少对于人工智能系统的潜在恶意使用。

56.鼓励会员国根据应用领域的敏感程度、对人权、环境和生态系统的预期影响以及本建议书提出的其他伦理考量,制定国家和地区人工智能战略,并考虑多种形式的柔性治理,例如人工智能系统认证机制和此类认证的相互承认。此类机制可以包括针对系统、数据以及伦理准则和伦理方面的程序要求的遵守情况开展不同层面的审计。另一方面,此类机制不得因行政负担过重而妨碍创新,或者让中小企业或初创企业、民间社会以及研究和科学组织处于不利地位。此类机制还应包括定期监测,在人工智能系统的整个生命周期内确保系统的稳健性、持续完整性和遵守伦理准则,必要时可要求重新认证。

57.会员国和公共管理部门应对现有和拟议的人工智能系统进行透明的自我评估,其中尤其应包括对采用人工智能是否适当进行评估,如果适当则应为确定适当的方法开展进一步评估,并评估采用这种方法是否会导致违反或滥用会员国的人权法义务,如果是则应禁止采用。

58.会员国应鼓励公共实体、私营公司和民间社会组织让不同利益攸关方参与其人工智能治理工作,并考虑增设独立的人工智能伦理干事岗位或某种其他机制,负责监督伦理影响评估、审计和持续监测工作,确保对于人工智能系统的伦理指导。鼓励会员国、私营公司和民间社会组织在教科文组织的支持下,创设独立的人工智能伦理干事网络,为国家、地区和国际层面的这一进程提供支持。

59.会员国应促进数字生态系统的发展和获取,以便在国家层面以合乎伦理和包容各方的方式发展人工智能系统,包括消除在人工智能系统生命周期准入方面的差距,同时推动国际合作。此类生态系统尤其包括数字技术和基础设施,在适当情况下还包括人工智能知识共享机制。

60.会员国应与国际组织、跨国公司、学术机构和民间社会合作建立机制,确保所有会员国积极参与关于人工智能治理的国际讨论,特别是中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。可以通过提供资金、确保平等的地区参与或任何其他机制来实现这一目标。此外,为确保人工智能论坛的包容性,会员国应为人工智能行为者的出入境提供便利,特别是中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家的行为者,以便其参加此类论坛。

61.修订现行的或制定新的有关人工智能系统的国家立法,必须遵守会员国的人权法义务,并在人工智能系统的整个生命周期内促进人权和基本自由。随着人工智能技术的发展,还应采取以下形式促进人权和基本自由:治理举措;关于人工智能系统的合作实践的良好范例;

国家及国际技术和方法准则。包括私营部门在内的各个部门在其关于人工智能系统的实践中必须利用现有的和新的文书以及本建议书,尊重、保护和促进人权和基本自由。

62.为执法、福利、就业、媒体和信息提供者、卫生保健和独立司法系统等对人权敏感的用途获取人工智能系统的会员国应建立机制,由独立的数据保护机关、行业监督机构和负责监督的公共机构等适当监督部门监测人工智能系统的社会和经济影响。

63.会员国应增强司法机构根据法治以及国际法和国际标准作出与人工智能系统有关决定(包括在其审议中使用人工智能系统的决定)的能力,同时确保坚持人类监督原则。司法机关如若使用人工智能系统,则需要有足够的保障措施,尤其要保障对基本人权的保护、法治、司法独立以及人类监督原则,并确保司法机关对人工智能系统的开发和使用值得信赖、以公共利益为导向且以人为本。

64.会员国应确保政府和多边组织在保障人工智能系统的安全和安保方面起到主导作用,并吸收多利益攸关方参与其中。具体而言,会员国、国际组织和其他相关机构应制定国际标准,列出可衡量和可检测的安全和透明度等级,以便能够客观评估人工智能系统并确定合规水平。此外,会员国和工商企业应对人工智能技术潜在安全和安保风险的战略研究提供持续支持,并应鼓励透明度、可解释性、包容和素养问题研究,在不同方面和不同层面(例如技术语言和自然语言)为这些领域投入更多资金。

65.会员国应实施政策,在人工智能系统的整个生命周期内确保人工智能行为者的行动符合国际人权法、标准和原则,同时充分考虑到当前的文化和社会多样性,包括地方习俗和宗教传统,并适当考虑到人权的优先性和普遍性。

66.会员国应建立机制,要求人工智能行为者披露并打击人工智能系统结果和数据中任何类型的陈规定型观念,无论是设计使然还是出于疏忽,确保人工智能系统的训练数据集不会助长文化、经济或社会不平等和偏见,不会散播虚假信息和错误信息,也不会干扰表达自由和信息获取。应特别关注数据匮乏地区。

67.会员国应实施政策,促进并提高人工智能开发团队和训练数据集的多样性和包容性,以反映其人口状况,确保人工智能技术及其惠益的平等获取,特别是对农村和城市地区的边缘化群体而言。

68.会员国应酌情制定、审查并调整监管框架,在人工智能系统生命周期的不同阶段对其内容和结果实施问责制和责任制。会员国应在必要时出台责任框架或澄清对现有框架的解释,确保为人工智能系统的结果和性能确定责任归属。此外,会员国在制定监管框架时,应特别考虑到最终责任和问责必须总是落实到自然人或法人身上,人工智能系统本身不应被赋予法人资格。为确保这一点,此类监管框架应符合人类监督原则,并确立着眼于人工智能系统生命周期不同阶段的人工智能行为者和技术流程的综合性方法。

69.为在空白领域确立规范或调整现有的法律框架,会员国应让所有人工智能行为者(包括但不限于研究人员、民间社会和执法部门的代表、保险公司、投资者、制造商、工程师、律师和用户)参与其中。这些规范可以发展成为最佳做法、法律和法规。进一步鼓励会员国采用样板政策和监管沙箱等机制,加快制定与新技术的飞速发展相适应的法律、法规和政策,包括对其进行定期审查,确保法律法规在正式通过之前能够在安全环境下进行测试。会员国应支持地方政府制定符合国家和国际法律框架的地方政策、法规和法律。

70.会员国应对人工智能系统的透明度和可解释性提出明确要求,以协助确保人工智能系统整个生命周期的可信度。此类要求应包括影响机制的设计和实施,其中要考虑到每个特定人工智能系统的应用领域的性质、预期用途、目标受众和可行性。

【政策领域3:数据政策】

71.会员国应努力制定数据治理战略,确保持续评估人工智能系统训练数据的质量,包括数据收集和选择过程的充分性、适当的数据安全和保护措施以及从错误中学习和在所有人工智能行为者之间分享最佳做法的反馈机制。

72.会员国应采取适当的保障措施,根据国际法保护隐私权,包括应对人们对于监控等问题的关切。会员国尤其应通过或实施可以提供适当保护并符合国际法的法律框架。会员国应大力鼓励包括工商企业在内的所有人工智能行为者遵守现行国际标准,特别是在伦理影响评估中开展适当的隐私影响评估,其中要考虑到预期数据处理产生的更广泛的社会经济影响,并在其系统中采用从设计入手保护隐私的做法。在人工智能系统的整个生命周期内应尊重、保护和促进隐私。

73.会员国应确保个人可以保留对于其个人数据的权利并得到相关框架的保护,此类框架尤其应预见到以下问题:透明度;对于处理敏感数据的适当保障;适当程度的数据保护;有效和实际的问责方案和机制;除符合国际法的某些情况外,数据主体对访问和删除其在人工智能系统中个人数据的权利和能力的充分享有;数据用于商业目的(例如精准定向广告)或跨境转移时完全符合数据保护法的适度保护;切实有效的独立监督,作为使个人可以掌控其个人数据、尊重数据主权并促进国际信息自由流通(包括数据获取)之惠益的数据治理机制的一部分。

74.会员国应制定数据政策或等效框架,或者加强现有政策或框架,以确保个人数据和敏感数据的充分安全,这类数据一旦泄露,可能会给个人造成特殊损害、伤害或困难。相关实例包括:与犯罪、刑事诉讼、定罪以及相关安全措施有关的数据;生物识别、基因和健康数据;与种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或任何其他特征有关的个人数据。

75.会员国应促进开放数据。在这方面,会员国应考虑审查其政策和监管框架,包括关于信息获取和政务公开的政策和监管框架,以便反映出人工智能特有的要求,并考虑促进相关机制,例如为公共资金资助或公有的数据和源代码以及数据信托建立开放式存储库,以支持安全、公平、合法与合乎伦理的数据分享等。

76.会员国应推动和促进将优质和稳健的数据集用于训练、开发和使用人工智能系统,并在监督数据集的收集和使用方面保持警惕。这包括在可能和可行的情况下投资建立黄金标准数据集,包括开放、可信、多样化、建立在有效的法律基础上并且按法律要求征得数据主体同意的数据集。应鼓励制定数据集标注标准,包括按性别和其他标准分列数据,以便于确定数据集的收集方式及其特性。

77.按照联合国秘书长数字合作高级别小组报告的建议,会员国应在联合国和教科文组织的支持下,酌情采用数字共享方式处理数据,提高工具、数据集和数据托管系统接口的互操作性,鼓励私营公司酌情与所有利益攸关方共享其收集的数据,以促进研究、创新和公共利益。会员国还应促进公共和私营部门建立协作平台,在可信和安全的数据空间内共享优质数据。

【政策领域4:发展与国际合作】

78.会员国和跨国公司应优先考虑人工智能伦理,在相关国际、政府间和多利益攸关方论坛上讨论与人工智能有关的伦理问题。

79. 会员国应确保人工智能在教育、科学、文化、传播和信息、卫生保健、农业和食品供应、环境、自然资源和基础设施管理、经济规划和增长等发展领域的应用符合本建议书提出的价值观和原则。

80.会员国应通过国际组织,努力为人工智能促进发展提供国际合作平台,包括提供专业知识、资金、数据、领域知识和基础设施,以及促进多利益攸关方之间的合作,以应对具有挑战性的发展问题,特别是针对中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。

81.会员国应努力促进人工智能研究和创新方面的国际合作,包括可以提升中低收入国家和其他国家(包括最不发达国家、内陆发展中国家和小岛屿发展中国家)研究人员的参与度和领导作用的研究和创新中心及网络。

82.会员国应通过吸收国际组织、研究机构和跨国公司参与,促进人工智能伦理研究,可以将这些研究作为公共和私营实体以合乎伦理的方式使用人工智能系统的基础,包括研究具体伦理框架在特定文化和背景下的适用性,以及根据这些框架开发技术上可行的解决方案的可能性。

83.会员国应鼓励在人工智能领域开展国际合作与协作,以弥合地缘技术差距。应在充分尊重国际法的前提下,在会员国与其民众之间、公共和私营部门之间以及技术上最先进和最落后的国家之间,开展技术交流和磋商。

【政策领域5:环境和生态系统】

84.在人工智能系统的整个生命周期内,会员国和工商企业应评估对环境产生的直接和间接影响,包括但不限于其碳足迹、能源消耗以及为支持人工智能技术制造而开采原材料对环境造成的影响,并应减少人工智能系统和数据基础设施造成的环境影响。会员国应确保所有人工智能行为者遵守有关环境的法律、政策和惯例。

85.会员国应在必要和适当时引入激励措施,确保开发并采用基于权利、合乎伦理、由人工智能驱动的解决方案抵御灾害风险;监测和保护环境与生态系统,并促进其再生;保护地球。这些人工智能系统应在其整个生命周期内让地方和土著社区参与,并应支持循环经济做法以及可持续的消费和生产模式。

例如,在必要和适当时可将人工智能系统用于以下方面:

(a)支持自然资源的保护、监测和管理。

(b)支持与气候有关问题的预测、预防、控制和减缓。

(c)支持更加高效和可持续的粮食生态系统。

(d)支持可持续能源的加速获取和大规模采用。

(e)促成并推动旨在促进可持续发展的可持续基础设施、可持续商业模式和可持续金融主流化。

(f)检测污染物或预测污染程度,协助相关利益攸关方确定、规划并实施有针对性的干预措施,防止并减少污染及曝露风险。

86.会员国在选择人工智能方法时,鉴于其中一些方法可能具有数据密集型或资源密集型特点以及对环境产生的不同影响,应确保人工智能行为者能够根据相称性原则,倾向于使用节约数据、能源和资源的人工智能方法。应制定要求,确保有适当证据表明一项人工智能应用程序将产生这种预期效果,或一项人工智能应用程序的附加保障措施可以为使用该应用程序的合理性提供支撑。假如做不到这一点,则必须遵循预防原则,而且在会对环境造成极其严重的负面影响的情况下,不得使用人工智能。

【政策领域6:性别】

87.会员国应确保数字技术和人工智能促进实现性别平等的潜能得到充分发挥,而且必须确保在人工智能系统生命周期的任何阶段,女童和妇女的人权和基本自由及其安全和人格不受侵犯。此外,伦理影响评估应包含横向性别平等视角。

88.会员国应从公共预算中划拨专项资金,用于资助促进性别平等的计划,确保国家数字政策包含性别行动计划,并制定旨在支持女童和妇女的相关政策,例如劳动力教育政策,以确保她们不会被排除在人工智能驱动的数字经济之外。应考虑并落实专项投资,用于提供有针对性的计划和有性别针对性的语言,从而为女童和妇女参与科学、技术、工程和数学(STEM)领域,包括信息和通信技术(信通技术)学科,以及为她们的就业准备、就业能力、平等的职业发展和专业成长,提供更多机会。

89.会员国应确保人工智能系统推动实现性别平等的潜能得到实现。会员国应确保这些技术不会加剧,而是消除模拟世界多个领域中已经存在的巨大性别差距。这些差距包括:性别工资差距;某些职业和活动中不平等的代表性;人工智能领域高级管理职位、董事会或研究团队中的代表性缺失;教育差距;数字和人工智能的获取、采用、使用和负担能力方面的差距;以及无偿工作和照料责任在社会中的不平等分配。

90.会员国应确保性别陈规定型观念和歧视性偏见不会被移植入人工智能系统,而且还应对其加以鉴别和主动纠正。必须努力避免技术鸿沟对以下方面产生复合性负面影响:实现性别平等和避免暴力侵害,例如针对妇女和女童以及代表性不足群体的骚扰、欺凌和贩运,包括在线上领域。

91.会员国应鼓励女性创业、参与并介入人工智能系统生命周期的各个阶段,具体办法是提供并促进经济和监管方面的激励措施以及其他激励措施和支持计划,制定目的是在学术界的人工智能研究方面实现性别均衡的参与、在数字和人工智能公司高级管理职位、董事会和研究团队中实现性别均衡的代表性的政策。会员国应确保(用于创新、研究和技术的)公共资金流向具有包容性和明确的性别代表性的计划和公司,并利用平权行动原则鼓励私人资金朝着类似方向流动。应制定并执行关于无骚扰环境的政策,同时鼓励传播关于如何在人工智能系统的整个生命周期内促进多样性的最佳做法。

92.会员国应促进学术界和产业界人工智能研究领域的性别多样性,为女童和妇女进入该领域提供激励措施,建立机制消除人工智能研究界的性别陈规定型观念和骚扰行为,并鼓励学术界和私营实体分享关于如何提高性别多样性的最佳做法。

93.教科文组织可以协助建立最佳做法资料库,鼓励女童、妇女和代表性不足的群体参与人工智能系统生命周期的各个阶段。

【政策领域7:文化】

94.鼓励会员国酌情将人工智能系统纳入物质、文献和非物质文化遗产(包括濒危语言以及土著语言和知识)的保护、丰富、理解、推广、管理和获取工作,具体办法包括酌情出台或更新与在这些领域应用人工智能系统有关的教育计划,以及确保采用针对机构和公众的参与式方法。

95.鼓励会员国审查并应对人工智能系统产生的文化影响,特别是自动翻译和语音助手等自然语言处理(NLP)应用程序给人类语言和表达的细微差别带来的影响。此类评估应为设计和实施相关战略提供参考,通过弥合文化差距、增进人类理解以及消除因减少使用自然语言等因素造成的负面影响,最大限度地发挥人工智能系统的惠益。减少使用自然语言可能导致濒危语言、地方方言以及与人类语言和表达形式有关的语音和文化差异的消失。

96.随着人工智能技术被用于创造、生产、推广、传播和消费多种文化产品和服务,会员国应促进针对艺术家和创意从业人员的人工智能教育和数字培训,以评估人工智能技术在其专业领域的适用性,并推动设计和应用适当的人工智能技术,同时铭记保护文化遗产、多样性和艺术自由的重要性。

97.会员国应促进当地文化产业和文化领域的中小企业对于人工智能工具的认识和评价,避免文化市场集中化的风险。

98.会员国应吸收技术公司和其他利益攸关方参与进来,促进文化表现形式的多样化供应和多元化获取,特别要确保算法建议可以提高本地内容的知名度和可见性。

99.会员国应促进在人工智能和知识产权的交汇点上开展新的研究,例如确定是否或如何对通过人工智能技术创作的作品给予知识产权保护。会员国还应评估人工智能技术如何影响作品被用于研究、开发、培训或实施人工智能应用程序的知识产权所有者的权利或利益。

100.会员国应鼓励国家级博物馆、美术馆、图书馆和档案馆使用人工智能系统,以突出其藏品,强化其图书馆、数据库和知识库,并允许用户访问。

【政策领域8:教育和研究】

101.会员国应与国际组织、教育机构、私营实体和非政府实体合作,在各个层面向所有国家的公众提供充分的人工智能素养教育,以增强人们的权能,减少因广泛采用人工智能系统而造成的数字鸿沟和数字获取方面的不平等。

102.会员国应促进人工智能教育“必备技能”的掌握,例如基本读写、计算、编码和数字技能、媒体与信息素养、批判性思维和创意思维、团队合作、沟通、社会情感技能和人工智能伦理技能,特别是在相关技能教育存在明显差距的国家及国内地区或区域。

103.会员国应促进关于人工智能发展的一般性宣传计划,其中包括数据、人工智能技术带来的机会和挑战、人工智能系统对人权(包括儿童权利)的影响及其意义。这些计划对于非技术群体和技术群体来说都应简明易懂。

104.会员国应鼓励开展关于以负责任和合乎伦理的方式将人工智能技术应用于教学、教师培训和电子学习等方面的研究活动,以增加机会,减轻这一领域的挑战和风险。在开展这些研究活动的同时,应充分评估教育质量以及人工智能技术的应用对于学生和教师的影响。会员国还应确保人工智能技术可以增强师生的权能和体验,同时铭记关系和社交方面以及传统教育形式的价值对于师生关系以及学生之间的关系至关重要,在讨论将人工智能技术应用于教育时应考虑到这一点。当涉及到监测、评估能力或预测学习者的行为时,用于学习的人工智能系统应符合严格的要求。人工智能应依照相关的个人数据保护标准支持学习过程,既不降低认知能力,也不提取敏感信息。在学习者与人工智能系统的互动过程中收集到的为获取知识而提交的数据,不得被滥用、挪用或用于犯罪,包括用于商业目的。

105.会员国应提升女童和妇女、不同族裔和文化、残障人士、边缘化和弱势群体或处境脆弱群体、少数群体以及没能充分得益于数字包容的所有人在各级人工智能教育计划中的参与度和领导作用,监测并与其他国家分享这方面的最佳做法。

106.会员国应根据本国教育计划和传统,为各级教育开发人工智能伦理课程,促进人工智能技术技能教育与人工智能教育的人文、伦理和社会方面的交叉协作。应以当地语言(包括土著语言)开发人工智能伦理教育的在线课程和数字资源,并考虑到环境多样性,特别要确保采用残障人士可以使用的格式。

107.会员国应促进并支持人工智能研究,特别是人工智能伦理问题研究,具体办法包括投资于此类研究或制定激励措施推动公共和私营部门投资于这一领域等,同时承认此类研究可极大地推动人工智能技术的进一步发展和完善,以促进落实国际法和本建议书中提出的价值观和原则。会员国还应公开推广以合乎伦理的方式开发人工智能的研究人员和公司的最佳做法,并与之合作。

108.会员国应确保人工智能研究人员接受过研究伦理培训,并要求他们将伦理考量纳入设计、产品和出版物中,特别是在分析其使用的数据集、数据集的标注方法以及可能投入应用的成果的质量和范围方面。

109.会员国应鼓励私营公司为科学界获取其数据用于研究提供便利,特别是在中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。这种获取应遵守相关隐私和数据保护标准。

110.为确保对人工智能研究进行批判性评估并适当监测可能出现的滥用或负面影响,会员国应确保人工智能技术今后的任何发展都应建立在严谨和独立的科学研究基础上,并吸收除科学、技术、工程和数学(STEM)之外的其他学科,例如文化研究、教育、伦理学、国际关系、法律、语言学、哲学、政治学、社会学和心理学等,促进开展跨学科的人工智能研究。

111.认识到人工智能技术为助力推进科学知识和实践提供了大好机会,特别是在以往采用模型驱动方法的学科中,会员国应鼓励科学界认识到使用人工智能的惠益、不足和风险;这包括努力确保通过数据驱动的方法、模型和处理方式得出的结论完善可靠。此外,会员国应欢迎并支持科学界在为政策建言献策和促进人们认识到人工智能技术的优缺点方面发挥作用。

【政策领域9:传播和信息】

112.会员国应利用人工智能系统改善信息和知识的获取。这可包括向研究人员、学术界、记者、公众和开发人员提供支持,以加强表达自由、学术和科学自由、信息获取,加大主动披露官方数据和信息的力度。

113.在自动内容生成、审核和策管方面,会员国应确保人工智能行为者尊重并促进表达自由和信息获取自由。适当的框架,包括监管,应让线上通信和信息运营商具有透明度,并确保用户能够获取多样化的观点,以及迅速告知用户为何对内容进行删除或其他处理的相关程序和让用户能够寻求补救的申诉机制。

114.会员国应投资于并促进数字以及媒体与信息素养技能,加强理解人工智能系统的使用和影响所需的批判性思维和能力,从而减少和打击虚假信息、错误信息和仇恨言论。此种努力应包括加强对推荐系统的积极和潜在有害影响的了解和评估。

115.会员国应为媒体创造有利的环境,使媒体有权利和资源切实有效地报道人工智能系统的利弊,并鼓励媒体在其业务中以合乎伦理的方式使用人工智能系统。

【政策领域10:经济和劳动】

116.会员国应评估并处理人工智能系统对所有国家劳动力市场的冲击及其对教育要求的影响,同时特别关注经济属于劳动密集型的国家。这可以包括在各级教育中引入更广泛的跨学科“核心”技能,为当前的劳动者和年轻世代提供可以在飞速变化的市场中找到工作的公平机会,并确保他们对于人工智能系统的伦理问题有所认识。除了传授专业技术技能和低技能任务知识之外,还应教授“学会如何学习”、沟通、批判性思维、团队合作、同理心以及在不同领域之间灵活运用知识的能力等技能。关键是要在有高需求的技能方面保持透明度,并围绕这些技能更新学校课程。

117.会员国应支持政府、学术机构、职业教育与培训机构、产业界、劳工组织和民间社会之间的合作协议,以弥合技能要求方面的差距,让培训计划和战略与未来工作的影响和包括中小企业在内的产业界的需求保持一致。应促进以项目为基础的人工智能教学和学习方法,以便公共机构、私营公司、大学和研究中心之间能够建立伙伴关系118.会员国应与私营公司、民间组织和其他利益攸关方(包括劳动者和工会)合作,确保高风险员工可以实现公平转型。这包括制定技能提升计划和技能重塑计划,建立在过渡期内保留员工的有效机制,以及为无法得到再培训的员工探索尝试“安全网”计划。会员国应制定并实施计划,以研究和应对已确定的各项挑战,其中可能包括技能提升和技能重塑、加强社会保障、主动的行业政策和干预措施、税收优惠、新的税收形式等。会员国应确保有足够的公共资金来支持这些计划。应审慎审查并在必要时修改税制等相关法规,消解基于人工智能的自动化造成的失业后果。

119.会员国应鼓励并支持研究人员分析人工智能系统对于当地劳动环境的影响,以预测未来的趋势和挑战。这些研究应采用跨学科方法,调查人工智能系统对经济、社会和地域因素、人机互动和人际关系产生的影响,以便就技能重塑和重新部署的最佳做法提出建议。

120.会员国应采取适当措施,确保竞争性市场和消费者保护,同时考虑可在国家、地区和国际各级采取何种措施和机制来防止在人工智能系统的整个生命周期内滥用与人工智能系统有关的市场支配地位,包括垄断,无论是数据、研究、技术还是市场垄断。会员国应防止由此造成的不平等,评估相关市场,并促进竞争性市场。应适当考虑中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家,这些国家由于缺乏基础设施、人力资源能力和规章制度等要素,面临滥用市场支配地位行为的风险更大,也更容易因之受到影响。

在已制定或通过人工智能伦理标准的国家从事人工智能系统开发的人工智能行为者,在出口这些产品以及在可能没有此类标准的国家开发或应用其人工智能系统时,应遵守这些标准,并遵守适用的国际法以及这些国家的国内立法、标准和惯例。

【政策领域11:健康和社会福祉】

121.会员国应努力利用有效的人工智能系统来改善人类健康并保护生命权,包括减少疾病的爆发,同时建立并维护国际团结,以应对全球健康风险和不确定性,并确保在卫生保健领域采用人工智能系统的做法符合国际法及其人权法义务。会员国应确保参与卫生保健人工智能系统的行为者会考虑到患者与家属的关系以及患者与医护人员关系的重要性。

122.会员国应确保与健康、特别是精神健康有关的人工智能系统的开发和部署适当关注儿童和青年,并受到监管,使其做到安全、有效、高效、经过科学和医学证明并能促进循证创新和医学进步。此外,在数字健康干预的相关领域,大力鼓励会员国主动让患者及其代表参与系统开发的所有相关步骤。

123.会员国应特别注意通过以下方式规范人工智能应用程序中用于卫生保健的预测、检测和治疗方案:

(a)确保监督,以尽可能减少和减轻偏见;

(b)在开发算法时,确保在所有相关阶段将专业人员、患者、护理人员或服务用户作为“领域专家”纳入团队;

(c)适当注意因可能需要医学监测而产生的隐私问题,并确保所有相关的国家和国际数据保护要求得到满足;

(d)确保建立有效机制,让被分析的数据主体了解对其个人数据的使用和分析并给予知情同意,同时又不妨碍他们获取卫生保健服务;

(e)确保人工护理以及最终的诊断和治疗决定一律由人类作出,同时肯定人工智能系统也可以协助人类工作;

(f)必要时确保在投入临床使用之前由伦理研究委员会对人工智能系统进行审查。

124.会员国应研究人工智能系统对于心理健康的潜在危害所产生的影响及如何加以调控的问题,例如深度抑郁、焦虑、社会隔离、成瘾、贩运、激进化和误导等。

125.会员国应在研究的基础上,针对机器人的未来发展,制定关于人机互动及其对人际关系所产生影响的准则,并特别关注人类身心健康。尤其应关注应用于卫生保健以及老年人和残障人士护理的机器人、应用于教育的机器人、儿童用机器人、玩具机器人、聊天机器人以及儿童和成人的陪伴机器人的使用问题。此外,应利用人工智能技术的协助来提高机器人的安全性,增进其符合人体工程学的使用,包括在人机工作环境中。应特别注意到利用人工智能操控和滥用人类认知偏差的可能性。

126.会员国应确保人机互动遵守适用于任何其他人工智能系统的相同价值观和原则,包括人权和基本自由、促进多样性和保护弱势群体或处境脆弱群体。应考虑与人工智能驱动的神经技术系统和脑机接口有关的伦理问题,以维护人的尊严和自主权。

127.会员国应确保用户能够轻松识别与自己互动的对象是生物,还是模仿人类或动物特征的人工智能系统,并且能够有效拒绝此类互动和要求人工介入。

128.会员国应实施政策,提高人们对于人工智能技术以及能够识别和模仿人类情绪的技术拟人化的认识,包括在提及这些技术时所使用的语言,并评估这种拟人化的表现形式、伦理影响和可能存在的局限性,特别是在人机互动的情况下和涉及到儿童时。

129.会员国应鼓励并促进关于人与人工智能系统长期互动所产生影响的合作研究,特别注意这些系统对儿童和青年的心理和认知可能产生的影响。在开展此类研究时,应采用多种规范、原则、协议、学科方法,评估行为和习惯的改变,并审慎评估下游的文化和社会影响。

此外,会员国应鼓励研究人工智能技术对于卫生系统的业绩和卫生结果产生的影响。

130.会员国和所有利益攸关方应建立机制,让儿童和青年切实参与到关于人工智能系统对其生活和未来所产生影响的对话、辩论和决策中。

五、监测和评估

131.会员国应根据本国具体国情、治理结构和宪法规定,采用定量和定性相结合的方法,以可信和透明的方式监测和评估与人工智能伦理问题有关的政策、计划和机制。为支持会员国,教科文组织可以从以下方面作出贡献:

(a)制定以严谨的科学研究为基础且以国际人权法为根据的教科文组织人工智能技术伦理影响评估(EIA)方法,关于在人工智能系统生命周期各个阶段实施该方法的指南,以及用于支持会员国对政府官员、政策制定者和其他相关人工智能行为者进行伦理影响评估方法培训的能力建设材料;

(b)制定教科文组织准备状态评估方法,协助会员国确定其准备进程各个方面在特定时刻的所处状态;

(c)制定教科文组织关于在事先和事后对照既定目标评估人工智能伦理政策和激励政策效力和效率的方法;

(d)加强关于人工智能伦理政策的基于研究和证据的分析和报告;

(e)收集和传播关于人工智能伦理政策的进展、创新、研究报告、科学出版物、数据和统计资料,包括通过现有举措,以支持最佳做法分享和相互学习,推动实施本建议书。

132. 监测和评估进程应确保所有利益攸关方的广泛参与,包括但不限于弱势群体或处境脆弱群体。应确保社会、文化和性别多样性,以期改善学习过程,加强调查结果、决策、透明度和成果问责制之间的联系。

133.为促进与人工智能伦理有关的最佳政策和做法,应制定适当的工具和指标,以便根据商定的标准、优先事项和具体目标,包括关于处境不利者、边缘化群体和弱势群体或处境脆弱群体的具体目标,评估此类政策和做法的效力和效率,以及人工智能系统在个人和社会层面产生的影响。人工智能系统及相关人工智能伦理政策和做法的影响监测和评估应以与有关风险相称的系统方法持续开展。这项工作应以国际商定的框架为基础,涉及对于私营和公共机构、提供方和计划的评估,包括自我评估,以及开展跟踪研究和制定一系列指标。数据收集和处理工作应遵守国际法、关于数据保护和数据隐私的国家立法以及本建议书概述的价值观和原则。

134.尤其是,会员国不妨考虑可行的监测和评估机制,例如:伦理问题委员会、人工智能伦理问题观察站、记录符合人权与合乎伦理的人工智能系统发展情况或在教科文组织各职能领域通过恪守伦理原则为现有举措作出贡献的资料库、经验分享机制、人工智能监管沙箱和面向所有人工智能行为者的评估指南,以评估会员国对于本文件所述政策建议的遵守情况。

六、本建议书的使用和推广

135.会员国和本建议书确定的所有其他利益攸关方应尊重、促进和保护本建议书提出的人工智能伦理价值观、原则和标准,并应采取一切可行步骤,落实本建议书的政策建议。

136.会员国应与在本建议书的范围和目标范畴内开展活动的所有相关国家和国际政府组织、非政府组织、跨国公司和科学组织合作,努力扩大并充实围绕本建议书采取的行动。

制定教科文组织伦理影响评估方法和建立国家人工智能伦理委员会,可以作为这方面的重要手段。

七、本建议书的宣传

137.教科文组织是负责宣传和传播本建议书的主要联合国机构,因此将与其他相关联合国实体合作开展工作,同时尊重它们的任务授权并避免工作重复。

138.教科文组织,包括其世界科学知识与技术伦理委员会(COMEST)、国际生物伦理委员会(IBC)和政府间生物伦理委员会(IGBC)等机构,还将与其他国际、地区和分地区政府组织和非政府组织开展合作。

139.尽管在教科文组织范围内,促进和保护任务属于各国政府和政府间机构的职权范围,但民间社会将是倡导公共部门利益的重要行为者,因此教科文组织需要确保和促进其合法性。

八、最后条款

140.应将本建议书作为一个整体来理解,各项基本价值观和原则应被视为相互补充、相互关联。

141.本建议书中的任何内容既不得解释为取代、改变或以其他方式损害各国根据国际法所负义务或所享权利,也不得解释为允许任何国家、其他政治、经济或社会行为者、群体或个人参与或从事任何有悖人权、基本自由、人的尊严以及对生物和非生物的环境与生态系统所抱之关切的活动或行为。

全球环境治理前沿资讯

 

绿会融媒LOGO

【绿讯】是中国绿发会国际部发挥智库功能、为了推动中国深度参与全球环境治理推出的一系列全球环境治理的最新的动态。本文资讯摘自联合国教科文组织发布的会议文件。仅供参考。

【拓展阅读】

绿会建言获UNESCO采纳:生物多样性写入人工智能伦理问题建议书(2021-11-27)

https://www.thepaper.cn/newsDetail_forward_15587198

《人工智能伦理问题建议书》出台过程一览(2021-11-27)

https://baijiahao.baidu.com/s?id=1717586373427536377

周晋峰:就UNESCO人工智能伦理征求意见,谈全面践行生态文明(2020/9/8)

http://www.cbcgdf.org/NewsShow/4854/13747.html

中国绿发会生物与科学伦理工作委员会征集对《人工智能伦理问题建议书草案》建议(2020-07-28)

https://www.thepaper.cn/newsDetail_forward_8467531

中国绿发会BASE建言联合国教科文组织人工智能伦理应纳入生物多样性及公共卫生安全新共识(2020-07-27)

https://www.sohu.com/a/410010586_100001695

人工智能迫切需要一个“伦理转向”

原标题:人工智能迫切需要一个“伦理转向”

当前人工智能的发展主要受益于以深度学习为代表的机器学习技术,这让计算机可以从大量数据中自主学习与进化,从而作出比人类更高效、更精准、更廉价的预测与决策。正因如此,人工智能作为新的通用型技术,被认为将给经济和社会带来变革性影响,已被各国上升到国家战略和科技主权高度,成为不断升温的全球科技竞争的新焦点。

在应用层面,人工智能已经渗透到各行各业,算法帮我们过滤掉垃圾邮件,给我们推荐可能喜欢的歌曲,为我们翻译不同的语言文字,替我们驾驶汽车。新冠肺炎疫情暴发以来,人工智能在辅助医疗诊断与新药研发等方面崭露头角,无人物流配送、无人驾驶汽车等新模式助力非接触服务发展。总之,人工智能潜力巨大,可以成为一股向善的力量,不仅带来经济增长,增进社会福祉,还能促进可持续发展。

但与此同时,人工智能及其应用的负面影响与伦理问题也日益凸显,呼吁人们在技术及其产业化之外更加关注伦理视域。例如,人工智能模型训练及其应用离不开大量数据的支持,可能导致违法违规或过度收集、使用用户数据,加深人工智能与数据隐私保护之间的紧张关系;人脸识别技术在一些场景的应用也引发了国内外对该技术侵犯个人隐私的争议。人工智能技术也可能被不法分子滥用,例如用来从事网络犯罪,生产、传播假新闻,合成足以扰乱视听的虚假影像等。

随着算法歧视的不断发酵,人工智能参与决策的公平性问题也备受关注。有研究发现,很多商业化的人脸识别系统都存在种族、性别等偏见,这样的技术用于自动驾驶汽车,就可能导致黑人等深色皮肤的人更容易被自动驾驶汽车撞到。人工智能在招聘、广告投放、信贷、保险、医疗、教育、司法审判、犯罪量刑、公共服务等诸多方面的应用也伴随公平性争议。此外,人工智能的知识产权保护问题也日益浮现,目前人工智能已能够独立创造诗歌、小说、图片、视频等,知识产权制度将需要尽快回应人工智能创造物的保护问题。自动驾驶汽车、AI医疗产品等人工智能应用一旦发生事故,也面临谁来担责的难题。最后,人工智能的应用可能取代部分手工的、重复性的劳动,给劳动者就业带来一定冲击。

2020年被认为是人工智能监管元年,美欧采取的监管路径大相径庭。欧盟《人工智能白皮书》提出的“重监管”模式更多倚重事前的规制,考虑为技术开发与应用设置严苛条件;美国《人工智能应用监管指南》提出的“轻监管”模式更多倚重标准、指南等弹性手段,考虑为人工智能应用设置避风港、“监管沙箱”等。在全球科技竞争日趋激烈、数字经济日趋成为国家核心竞争力等背景下,考虑到我国科技行业发展实际,我国对人工智能需要创新治理,倚重敏捷监管、伦理治理、技术治理等多元手段来共同确保人工智能正向应用与向善发展。

首先,监管不仅需要对人工智能应用分级分类、以问题和风险防范为导向,而且需要具有敏捷性与适应性。人工智能技术的一个核心特征是快速发展迭代,制定强制性法律必然赶不上技术发展步伐,所以国外大都采取出台指南、伦理框架等“软法”。此外,自动驾驶汽车、智能医疗等人工智能应用的发展落地仍面临较多法规政策障碍,需要考虑修订阻碍性的法律法规,同时通过“数字沙箱”“安全港”“试点”等方式推动其试验与应用落地。

其次,采取伦理治理,把伦理原则转化为伦理实践。目前,国内外很多科技公司都出台了人工智能伦理原则,也在通过伦理审查委员会、伦理嵌入等方式落实其伦理原则。行业的这些伦理治理措施已在国内外获得较大共识,更能适应AI技术发展。

再次,以技术手段防范人工智能滥用。例如,深度合成作为一项人工智能应用,在影视制作、教育、医疗、娱乐等领域具有很大正向应用价值,但也可能被不法分子滥用来制造、传播虚假影像以从事欺诈欺骗活动。对此,行业内已在积极研发、部署内容鉴别与溯源技术,以对抗深度合成的滥用。面对复杂性与迭代速度不断增强的人工智能应用,技术治理将发挥越来越大的作用。

(作者:曹建峰,系腾讯研究院高级研究员)

(责编:赵超、吕骞)

分享让更多人看到

人工智能的伦理挑战

原标题:人工智能的伦理挑战

控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。

维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品――根据未来学家库兹威尔在《奇点临近》中的说法――一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?

实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。

首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰・麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里・谢伊诺斯基和杰弗里・辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。

然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。

所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。

不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。

这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象――土傀儡――来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。

(作者:蓝江,系南京大学哲学系教授)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇