博舍

UNESCO第41届大会审议通过《人工智能伦理问题建议书》 人工智能框架问题有哪些方面的问题和建议

UNESCO第41届大会审议通过《人工智能伦理问题建议书》

编者按:2021年11月24日,在刚刚闭幕的联合国教科文组织大会第41届会议上,诞生了《人工智能伦理问题建议书》。笔者尤为振奋,不光因为我们在2020年7月参与建言、向联合国教科文组织提交的关于“环境、生态系统、生物多样性应写入人工智能伦理”的建议几乎被全面采纳;也因为,这是笔者看到过的所有的关于人工智能伦理文本中最好、也最全面的一个文本。

然而,目前我国对其的报道还是非常有限。尽管这份建议书是在11月24日的会议上通过的,国内当天几乎罕有报道(中文世界就连对联合国教科文组织第41届大会的报道也是很少的)。次日,也就是11月25日,UNESCO在巴黎在举行新闻发布会,介绍正式通过的这个首份人工智能伦理问题全球性协议,然后11月26日中国新闻网、新华社、央视等国内主流媒体才有简短的报道。截至2021年11月27日晚上、也就是这份建议书通过后的72小时之后,小编看到的有限的所有的中文报道都非常简短。而事实上,这份建议书文本非常全面,对于全球的人工智能的发展影响将是极为深远的。

从内容和词频上看,2021年文本大量提升了生态环境相关的内容。笔者盘点了一番:“生物多样性”出现2次(去年草案初稿中出现0次),“生态系统”出现31次(去年草案初稿中约5次);“环境”一词出现约59次(去年草案初稿中出现23次);“动物福利”出现1次(之前0次);“碳足迹”出现2次。可以说,对比2021年的文本和2020年的文本,我们绿会的建议几乎得到了较为全面的采纳。

此外,本文尤其强调了“人工智能系统的整个生命周期”,笔者认为,这一点尤为值得重视。在全文中出现51次。所谓人工智能系统整个生命周期,该文件将其定义为“从研究、设计、开发到配置和使用等各阶段,包括维护、运行、交易、融资、监测和评估、验证、使用终止、拆卸和终结。”

另外,难能可贵的一点是,该建议书明确表示,并不试图对人工智能作出唯一的定义。它认为,这种定义需要随着技术的发展与时俱进。因此,该文本旨在探讨人工智能系统中具有核心伦理意义的特征。笔者注意到,此次会议决定,会员国关于其为实施《人工智能伦理问题建议书》所采取措施的报告周期为四年一次。也就是说,在联合国教科文组织大会43届会议(四年后)上,将讨论《人工智能伦理问题建议书》实施情况的第一份综合报告。

为了让国内同胞们能尽快看到文本,笔者从联合国教科文组织的官网发布的提交给41届大会审议的材料中提取了中文文字版。相信这份文件对我国人工智能学界、政策制定者、产业界都有不小的参考价值,绿会融媒在此中文首发。事实上这篇文章的排版花了小编超过四个小时,不光是排版较难、也因花了点世界对其中文文本中的个别问题译法进行了查证。以下文本来自于UNESCO官网,全文约27000字。分享如下,供读者参考。

编者按/王豁审/绿会国际部 编/angel

人工智能伦理问题建议书。图源/unesco

《人工智能伦理问题建议书》草案文本

(注:已在联合国教科文组织第41届大会上获得会员国通过)

序言

联合国教育、科学及文化组织(教科文组织)大会于2021年11月9日至24日在巴黎召开第四十一届会议,

认识到人工智能(AI)从正负两方面对社会、环境、生态系统和人类生活包括人类思想具有深刻而动态的影响,部分原因在于人工智能的使用以新的方式影响着人类的思维、互动和决策,并且波及到教育、人文科学、社会科学和自然科学、文化、传播和信息,

忆及教科文组织根据《组织法》,力求通过教育、科学、文化以及传播和信息促进各国间之合作,对和平与安全作出贡献,以增进对正义、法治及所确认之世界人民均享人权与基本自由之普遍尊重,

深信在此提出的建议书,作为以国际法为依据、采用全球方法制定且注重人的尊严和人权以及性别平等、社会和经济正义与发展、身心健康、多样性、互联性、包容性、环境和生态系统保护的准则性文书,可以引导人工智能技术向着负责任的方向发展,

遵循《联合国宪章》的宗旨和原则,

考虑到人工智能技术可以对人类大有助益并惠及所有国家,但也会引发根本性的伦理关切,例如:人工智能技术可能内嵌并加剧偏见,可能导致歧视、不平等、数字鸿沟和排斥,并对文化、社会和生物多样性构成威胁,造成社会或经济鸿沟;算法的工作方式和算法训练数据应具有透明度和可理解性;人工智能技术对于多方面的潜在影响,包括但不限于人的尊严、人权和基本自由、性别平等、民主、社会、经济、政治和文化进程、科学和工程实践、动物福利以及环境和生态系统,

又认识到人工智能技术会加深世界各地国家内部和国家之间现有的鸿沟和不平等,必须维护正义、信任和公平,以便在公平获取人工智能技术、享受这些技术带来的惠益和避免受其负面影响方面不让任何国家和任何人掉队,同时认识到各国国情不同,并尊重一部分人不参与所有技术发展的意愿,

意识到所有国家都正值信息和通信技术及人工智能技术使用的加速期,对于媒体与信息素养的需求日益增长,且数字经济带来了重大的社会、经济和环境挑战以及惠益共享的机会,对于中低收入国家(LMIC)——包括但不限于最不发达国家(LDC)、内陆发展中国家(LLDC)和小岛屿发展中国家(SIDS)而言尤为如此,需要承认、保护和促进本土文化、价值观和知识,以发展可持续的数字经济,

还认识到人工智能技术具备有益于环境和生态系统的潜能,要实现这些惠益,不应忽视而是要去应对其对环境和生态系统的潜在危害和负面影响,

注意到应对风险和伦理关切的努力不应妨碍创新和发展,而是应提供新的机会,激励合乎伦理的研究和创新,使人工智能技术立足于人权和基本自由、价值观和原则以及关于道义和伦理的思考,

又忆及教科文组织大会在2019年11月第四十届会议上通过了第40C/37号决议,授权总干事“以建议书的形式编制一份关于人工智能伦理问题的国际准则性文书”,提交2021年大会第四十一届会议,

认识到人工智能技术的发展需要相应提高数据、媒体与信息素养,并增加获取独立、多元、可信信息来源的机会,包括努力减少错误信息、虚假信息和仇恨言论的风险以及滥用个人数据造成的伤害,

认为关于人工智能技术及其社会影响的规范框架应建立在共识和共同目标的基础上,以国际和国家法律框架、人权和基本自由、伦理、获取数据、信息和知识的需求、研究和创新自由、人类福祉、环境和生态系统福祉为依据,将伦理价值观和原则与同人工智能技术有关的挑战和机遇联系起来,

又认识到伦理价值观和原则可以通过发挥指引作用,帮助制定和实施基于权利的政策措施和法律规范,以期加快技术发展步伐,

又深信全球公认的、充分尊重国际法特别是人权法的人工智能技术伦理标准可以在世界各地制定人工智能相关规范方面起到关键作用,

铭记《世界人权宣言》(1948年);国际人权框架文书,包括《关于难民地位的公约》(1951年)、《就业和职业歧视公约》(1958年)、《消除一切形式种族歧视国际公约》(1965年)、《公民及政治权利国际公约》(1966年)、《经济社会文化权利国际公约》(1966年)、《消除对妇女一切形式歧视公约》(1979年)、《儿童权利公约》(1989年)和《残疾人权利公约》(2006年);《反对教育歧视公约》(1960年);《保护和促进文化表现形式多样性公约》(2005年);以及其他一切相关国际文书、建议书和宣言,又注意到《联合国发展权利宣言》(1986年);《当代人对后代人的责任宣言》(1997年);《世界生物伦理与人权宣言》(2005年);《联合国土著人民权利宣言》(2007年);2014年联合国大会关于信息社会世界峰会审查的决议(A/RES/70/125)(2015年);联合国大会关于“变革我们的世界:2030年可持续发展议程”的决议(A/RES/70/1)(2015年);《关于保存和获取包括数字遗产在内的文献遗产的建议书》(2015年);《与气候变化有关的伦理原则宣言》(2017年);《关于科学和科学研究人员的建议书》(2017年);互联网普遍性指标(2018年获得教科文组织国际传播发展计划认可),包括立足人权、开放、人人可及和多利益攸关方参与原则(2015年获得教科文组织大会认可);人权理事会关于“数字时代的隐私权”的决议(A/HRC/RES/42/15)(2019年);以及人权理事会关于“新兴数字技术与人权”的决议(A/HRC/RES/41/11)(2019年),

强调必须特别关注中低收入国家,包括但不限于最不发达国家、内陆发展中国家和小岛屿发展中国家,这些国家具备能力,但在人工智能伦理问题辩论中的代表性不足,由此引发了对于地方知识、文化多元化、价值体系以及应对人工智能技术的正负两方面影响需要实现全球公平的要求受到忽视的关切,

又意识到在人工智能技术的伦理和监管方面,目前存在许多国家政策以及由联合国相关实体、政府间组织(包括地区组织)和由私营部门、专业组织、非政府组织和科学界制定的其他框架和倡议,

还深信人工智能技术可以带来重大惠益,但实现这些惠益也会加剧围绕创新产生的矛盾冲突、知识和技术获取不对称(包括使公众参与人工智能相关议题的能力受限的数字和公民素养赤字)以及信息获取障碍、能力亦即人员和机构能力差距、技术创新获取障碍、缺乏适当的实体和数字基础设施以及监管框架(包括与数据有关的基础设施和监管框架)的问题,所有这些问题都需要解决,

强调需要加强全球合作与团结,包括通过多边主义,以促进公平获取人工智能技术,应对人工智能技术给文化和伦理体系的多样性和互联性带来的挑战,减少可能的滥用,充分发挥人工智能可能给各个领域特别是发展领域带来的潜能,确保各国人工智能战略以伦理原则为指导,

充分考虑到人工智能技术的快速发展对以合乎伦理的方式应用和治理人工智能技术以及对尊重和保护文化多样性提出了挑战,并有可能扰乱地方和地区的伦理标准和价值观,

1.通过本人工智能伦理问题建议书;

2.建议会员国在自愿基础上适用本建议书的各项规定,特别是根据各自国家的宪法实践和治理结构采取适当步骤,包括必要的立法或其他措施,依照包括国际人权法在内的国际法,使建议书的原则和规范在本国管辖范围内生效;

3.又建议会员国动员包括工商企业在内的所有利益攸关方,确保他们在实施本建议书方面发挥各自的作用;并提请涉及人工智能技术的管理部门、机构、研究和学术组织、公共、私营和民间社会机构和组织注意本建议书,使人工智能技术的开发和应用做到以健全的科学研究以及伦理分析和评估作为指导。

一、适用范围

1.本建议书述及与人工智能领域有关且属于教科文组织职责范围之内的伦理问题。建议书以能指导社会负责任地应对人工智能技术对人类、社会、环境和生态系统产生的已知和未知影响并相互依存的价值观、原则和行动构成的不断发展的整体、全面和多元文化框架为基础,将人工智能伦理作为一种系统性规范考量,并为社会接受或拒绝人工智能技术提供依据。

建议书将伦理视为对人工智能技术进行规范性评估和指导的动态基础,以人的尊严、福祉和防止损害为导向,并立足于科技伦理。

2.本建议书无意对人工智能作出唯一的定义,这种定义需要随着技术的发展与时俱进。

建议书旨在探讨人工智能系统中具有核心伦理意义的特征。因此,本建议书将人工智能系统视为有能力以类似于智能行为的方式处理数据和信息的系统,通常包括推理、学习、感知、预测、规划或控制等方面。这一方法有三个重要因素:

(a)人工智能系统是整合模型和算法的信息处理技术,这些模型和算法能够生成学习和执行认知任务的能力,从而在物质环境和虚拟环境中实现预测和决策等结果。

在设计上,人工智能系统借助知识建模和知识表达,通过对数据的利用和对关联性的计算,可以在不同程度上实现自主运行。人工智能系统可以包含若干种方法,包括但不限于:

(i)机器学习,包括深度学习和强化学习;

(ii)机器推理,包括规划、调度、知识表达和推理、搜索和优化。

人工智能系统可用于信息物理系统,包括物联网、机器人系统、社交机器人和涉及控制、感知及处理传感器所收集数据的人机交互以及人工智能系统工作环境中执行器的操作。

(b)与人工智能系统有关的伦理问题涉及人工智能系统生命周期的各个阶段,此处系指从研究、设计、开发到配置和使用等各阶段,包括维护、运行、交易、融资、监测和评估、验证、使用终止、拆卸和终结。此外,人工智能行为者可以定义为在人工智能系统生命周期内至少参与一个阶段的任何行为者,可指自然人和法人,例如研究人员、程序员、工程师、数据科学家、终端用户、工商企业、大学和公私实体等。

(c)人工智能系统引发了新型伦理问题,包括但不限于其对决策、就业和劳动、社交、卫生保健、教育、媒体、信息获取、数字鸿沟、个人数据和消费者保护、环境、民主、法治、安全和治安、双重用途、人权和基本自由(包括表达自由、隐私和非歧视)的影响。此外,人工智能算法可能复制和加深现有的偏见,从而加剧已有的各种形式歧视、偏见和成见,由此产生新的伦理挑战。其中一些问题与人工智能系统能够完成此前只有生物才能完成、甚至在有些情况下只有人类才能完成的任务有关。这些特点使得人工智能系统在人类实践和社会中以及在与环境和生态系统的关系中,可以起到意义深远的新作用,为儿童和青年的成长、培养对于世界和自身的认识、批判性地认识媒体和信息以及学会作出决定创造了新的环境。

从长远看,人工智能系统可能挑战人类特有的对于经验和能动作用的感知,在人类的自我认知、社会、文化和环境的互动、自主性、能动性、价值和尊严等方面引发更多关切。

3.秉承教科文组织世界科学知识与技术伦理委员会(COMEST)在2019年《人工智能伦理问题初步研究》中的分析,本建议书特别关注人工智能系统与教育、科学、文化、传播和信息等教科文组织核心领域有关的广泛伦理影响:

(a)教育,这是因为鉴于对劳动力市场、就业能力和公民参与的影响,生活在数字化社会需要新的教育实践、伦理反思、批判性思维、负责任的设计实践和新的技能。

(b)科学,系指最广泛意义上的科学,包括从自然科学、医学到社会科学和人文科学等所有学术领域,这是由于人工智能技术带来了新的研究能力和方法,影响到我们关于科学认识和解释的观念,为决策创建了新的基础。

(c)文化特性和多样性,这是由于人工智能技术可以丰富文化和创意产业,但也会导致文化内容的供应、数据、市场和收入更多地集中在少数行为者手中,可能对语言、媒体、文化表现形式、参与和平等的多样性和多元化产生负面影响。

(d)传播和信息,这是由于人工智能技术在处理、组织和提供信息方面起到日益重要的作用;很多现象引发了与信息获取、虚假信息、错误信息、仇恨言论、新型社会叙事兴起、歧视、表达自由、隐私、媒体与信息素养等有关的问题,自动化新闻、通过算法提供新闻、对社交媒体和搜索引擎上的内容进行审核和策管只是其中几个实例。

4.本建议书面向会员国,会员国既是人工智能行为者,又是负责制定人工智能系统整个生命周期的法律和监管框架并促进企业责任的管理部门。此外,建议书为贯穿人工智能系统生命周期的伦理影响评估奠定了基础,从而为包括公共和私营部门在内的所有人工智能行为者提供伦理指南。

二、宗旨和目标

5.本建议书旨在提供基础,让人工智能系统可以造福人类、个人、社会、环境和生态系统,同时防止危害。它还旨在促进和平利用人工智能系统。

6.本建议书的目的是在全球现有人工智能伦理框架之外,再提供一部全球公认的规范性文书,不仅注重阐明价值观和原则,而且着力于通过具体的政策建议切实落实这些价值观和原则,同时着重强调包容、性别平等以及环境和生态系统保护等问题。

7.由于与人工智能有关的伦理问题十分复杂,需要国际、地区和国家各个层面和各个部门的众多利益攸关方开展合作,故而本建议书的宗旨是让利益攸关方能够在全球和文化间对话的基础上共同承担责任。

8.本建议书的目标如下:

(a)依照国际法,提供一个由价值观、原则和行动构成的普遍框架,指导各国制定与人工智能有关的立法、政策或其他文书;

(b)指导个人、团体、社群、机构和私营公司的行动,确保将伦理规范嵌入人工智能系统生命周期的各个阶段;

(c)在人工智能系统生命周期的各个阶段保护、促进和尊重人权和基本自由、人的尊严和平等,包括性别平等;保障当代和后代的利益;保护环境、生物多样性和生态系统;尊重文化多样性;

(d)推动多利益攸关方、多学科和多元化对话和建立共识,讨论与人工智能系统有关的伦理问题;

(e)促进对人工智能领域进步和知识的公平获取以及惠益共享,特别关注包括最不发达国家、内陆发展中国家和小岛屿发展中国家在内的中低收入国家的需求和贡献。

三、价值观和原则

9.首先,人工智能系统生命周期的所有行为者都应尊重下文所载的价值观和原则,并在必要和适当的情况下,通过修订现行的和制定新的法律、法规和业务准则来促进这些价值观和原则。这必须遵守国际法,包括《联合国宪章》和会员国的人权义务,并应符合国际商定的社会、政治、环境、教育、科学和经济可持续性目标,例如联合国可持续发展目标(SDG)。

10.价值观作为催人奋进的理想,在制定政策措施和法律规范方面发挥着强大作用。下文概述的一系列价值观可以激发理想的行为并是确立原则的基础,而原则更为具体地阐述作为其根本的价值观,以便更易于在政策声明和行动中落实这些价值观。

11.下文概述的所有价值观和原则本身都是可取的,但在任何实际情况下这些价值观和原则之间都可能会有矛盾。在特定情况下,需要根据具体情况进行评估以管控潜在的矛盾,同时考虑到相称性原则并尊重人权和基本自由。在所有情况下,可能对人权和基本自由施加的任何限制均必须具有合法基础,而且必须合理、必要和相称,符合各国依据国际法所承担的义务。要做到明智而审慎地处理这些情况,通常需要与广泛的相关利益攸关方合作,同时利用社会对话以及伦理审议、尽职调查和影响评估。

12.人工智能系统生命周期的可信度和完整性对于确保人工智能技术造福人类、个人、社会、环境和生态系统并且体现出本建议书提出的价值观和原则至关重要。在采取适当措施降低风险时,人们应有充分理由相信人工智能系统能够带来个人利益和共享利益。具有可信度的一个基本必要条件是,人工智能系统在整个生命周期内都受到相关利益攸关方适当的全面监测。由于可信度是本文件所载各项原则得到落实的结果,本建议书提出的政策行动建议均旨在提升人工智能系统生命周期各个阶段的可信度。

3.1价值观

【尊重、保护和促进人权和基本自由以及人的尊严】

13.每个人与生俱来且不可侵犯的尊严构成了人权和基本自由这一普遍、不可分割、不可剥夺、相互依存又彼此相关的体系的基础。因此,尊重、保护和促进包括国际人权法在内的国际法确立的人的尊严和权利,在人工智能系统的整个生命周期内都至关重要。人的尊严系指承认每个人固有和平等的价值,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。

14.在人工智能系统生命周期的任何阶段,任何人或人类社群在身体、经济、社会、政治、文化或精神等任何方面,都不应受到损害或被迫居于从属地位。在人工智能系统的整个生命周期内,人类生活质量都应得到改善,而“生活质量”的定义只要不侵犯或践踏人权和基本自由或人的尊严,应由个人或群体来决定。

15.在人工智能系统的整个生命周期内,人会与人工智能系统展开互动,接受这些系统提供的帮助,例如照顾弱势者或处境脆弱群体,包括但不限于儿童、老年人、残障人士或病人。

在这一互动过程中绝不应将人物化,不应以其他方式损害人的尊严,也不应侵犯或践踏人权和基本自由。

16.在人工智能系统的整个生命周期内,必须尊重、保护和促进人权和基本自由。各国政府、私营部门、民间社会、国际组织、技术界和学术界在介入与人工智能系统生命周期有关的进程时,必须尊重人权文书和框架。新技术应为倡导、捍卫和行使人权提供新手段,而不是侵犯人权。

【环境和生态系统蓬勃发展】

17.应在人工智能系统的整个生命周期内确认、保护和促进环境和生态系统的蓬勃发展。

此外,环境和生态系统是关乎人类和其他生物能否享受人工智能进步所带来惠益的必要条件。

18.参与人工智能系统生命周期的所有行为者都必须遵守适用的国际法以及国内立法、标准和惯例,例如旨在保护和恢复环境和生态系统以及促进可持续发展的预防措施。这些行为者应减少人工智能系统对环境的影响,包括但不限于碳足迹,以确保将气候变化和环境风险因素降到最低,防止会加剧环境恶化和生态系统退化的对自然资源的不可持续开采、使用和转化。

【确保多样性和包容性】

19.在人工智能系统的整个生命周期内,应依照包括人权法在内的国际法,确保尊重、保护和促进多样性和包容性。为此,可以促进所有个人或群体的积极参与,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。

20.对于生活方式的选择范围、信仰、意见、表达形式或个人经验,包括对于人工智能系统的任选使用以及这些架构的共同设计,在人工智能系统生命周期的任何阶段都不应受到限制。

21.此外,应作出努力,包括开展国际合作,以克服并绝不利用影响到社区的缺乏必要技术基础设施、教育和技能以及法律框架的情况,特别是在中低收入国家、最不发达国家、内陆发展中国家和小岛屿发展中国家中。

【生活在和平、公正与互联的社会中】

22.人工智能行为者应为确保建设和平与公正的社会发挥参与和促进作用,这种社会的根基是惠及全民、符合人权和基本自由的相互关联的未来。在和平与公正的社会中生活的价值观表明,人工智能系统在整个生命周期内都有可能为所有生物之间及其与自然环境之间的相互关联作出贡献。

23.人与人之间相互联系的概念是基于这样一种认识,即每个人都属于一个更大的整体,当这个整体中的组成部分都能够繁荣兴旺时,整体才会蒸蒸日上。在和平、公正与互联的社会中生活,需要一种有机、直接、出自本能的团结纽带,其特点是不懈地寻求和平关系,倾向于在最广泛的意义上关爱他人和自然环境。

24.这一价值观要求在人工智能系统的整个生命周期内促进和平、包容与正义、公平和相互联系,人工智能系统生命周期的各种进程不得隔离或物化人类和社区或者削弱其自由、自主决策和安全,不得分裂个人和群体或使之相互对立,也不得威胁人类、其他生物和自然环境之间的共存。

3.2原则

【相称性和不损害】

25.应该认识到,人工智能技术本身并不一定能确保人类、环境和生态系统蓬勃发展。况且,与人工智能系统生命周期有关的任何进程都不得超出实现合法目的或目标所需的范围,并应切合具体情况。在有可能对人类、人权和基本自由、个别社区和整个社会,或者对环境和生态系统造成损害时,应确保落实风险评估程序并采取措施,以防止发生此类损害。

26.应从以下方面证明选择使用人工智能系统和选用哪种人工智能方法的合理性:(a)所选择的人工智能方法对于实现特定合法目标应该是适当的和相称的;(b)所选择的人工智能方法不得违背本文件提出的基本价值观,特别是其使用不得侵犯或践踏人权;(c)人工智能方法应切合具体情况,并应建立在严谨的科学基础上。在所涉决定具有不可逆转或难以逆转的影响或者在涉及生死抉择的情况下,应由人类作出最终决定。人工智能系统尤其不得用于社会评分或大规模监控目的。

【安全和安保】

27.在人工智能系统的整个生命周期内,应避免并解决、预防和消除意外伤害(安全风险)以及易受攻击的脆弱性(安保风险),确保人类、环境和生态系统的安全和安保。开发可持续和保护隐私的数据获取框架,促进利用优质数据更好地训练和验证人工智能模型,便可以实现有安全和安保保障的人工智能。

【公平和非歧视】

28.人工智能行为者应根据国际法,促进社会正义并保障一切形式的公平和非歧视。这意味着要采用包容性办法确保人工智能技术的惠益人人可得可及,同时又考虑到不同年龄组、文化体系、不同语言群体、残障人士、女童和妇女以及处境不利、边缘化和弱势群体或处境脆弱群体的具体需求。会员国应努力让包括地方社区在内的所有人都能够获取提供本地相关内容和服务且尊重多语言使用和文化多样性的人工智能系统。会员国应努力消除数字鸿沟,并确保对人工智能发展的包容性获取和参与。在国家层面,会员国应努力在人工智能系统生命周期的准入和参与问题上促进城乡之间的公平,以及所有人之间的公平,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。在国际层面,技术最先进的国家有责任支持最落后的国家,确保共享人工智能技术的惠益,使得后者能够进入和参与人工智能系统生命周期,从而推动建设一个在信息、传播、文化、教育、研究、社会经济和政治稳定方面更加公平的世界秩序。

29.人工智能行为者应尽一切合理努力,在人工智能系统的整个生命周期内尽量减少和避免强化或固化带有歧视性或偏见的应用程序和结果,确保人工智能系统的公平。对于带有歧视性和偏见的算法决定,应提供有效的补救办法。

30.此外,在人工智能系统的整个生命周期内,需要解决国家内部和国家之间的数字和知识鸿沟,包括根据相关的国家、地区和国际法律框架解决技术和数据获取及获取质量方面的鸿沟,以及在连接性、知识和技能以及受影响社区的切实参与方面的鸿沟,以便让每个人都得到公平待遇。

【可持续性】

31.可持续社会的发展,有赖于在人类、社会、文化、经济和环境等方面实现一系列复杂的目标。人工智能技术的出现可能有利于可持续性目标,但也可能阻碍这些目标的实现,这取决于处在不同发展水平的国家如何应用人工智能技术。因此,在就人工智能技术对人类、社会、文化、经济和环境的影响开展持续评估时,应充分考虑到人工智能技术对于作为一套涉及多方面的动态目标(例如目前在联合国可持续发展目标中认定的目标)的可持续性的影响。

【隐私权和数据保护】

32.隐私权对于保护人的尊严、自主权和能动性不可或缺,在人工智能系统的整个生命周期内必须予以尊重、保护和促进。重要的是,人工智能系统所用数据的收集、使用、共享、归档和删除方式,必须符合国际法,契合本建议书提出的价值观和原则,同时遵守相关的国家、地区和国际法律框架。

33.应在国家或国际层面采用多利益攸关方办法,建立适当的数据保护框架和治理机制,将其置于司法系统保护之下,并在人工智能系统的整个生命周期内予以保障。数据保护框架和任何相关机制应参鉴有关收集、使用和披露个人数据以及数据主体行使其权利的国际数据保护原则和标准,同时确保对个人数据的处理具有合法的目的和有效的法律依据,包括取得知情同意。

34. 需要对算法系统开展充分的隐私影响评估,其中包括使用算法系统的社会和伦理考量以及通过设计方法对于隐私的创新使用。人工智能行为者需要确保他们对人工智能系统的设计和实施负责,以确保个人信息在人工智能系统的整个生命周期内受到保护。

【人类的监督和决定】

35.会员国应确保始终有可能将人工智能系统生命周期的任何阶段以及与人工智能系统有关的补救措施的伦理和法律责任归属于自然人或现有法人实体。因此,人类监督不仅指个人监督,在适当情况下也指范围广泛的公共监督。

36.在某些情况下,出于效率性的考虑,人类有时选择依赖人工智能系统,但是否在有限情形下出让控制权依然要由人类来决定,这是由于人类在决策和行动上可以借助人工智能系统,但人工智能系统永远无法取代人类的最终责任和问责。一般而言,生死攸关的决定不应让给人工智能系统来作。

【透明度和可解释性】

37.人工智能系统的透明度和可解释性往往是确保人权、基本自由和伦理原则得到尊重、保护和促进的必要先决条件。透明度是相关国家和国际责任制度有效运作的必要因素。缺乏透明度还可能削弱对根据人工智能系统产生的结果所作决定提出有效质疑的可能性,进而可能侵犯获得公平审判和有效补救的权利,并限制这些系统的合法使用领域。

38.在人工智能系统的整个生命周期内都需要努力提高人工智能系统(包括那些具有域外影响的系统)的透明度和可解释性,以支持民主治理,但透明度和可解释性的程度应始终切合具体情况并与其影响相当,因为可能需要在透明度和可解释性与隐私、安全和安保等其他原则之间取得平衡。在所涉决定系参考或依据人工智能算法作出的情况下,包括在所涉决定关乎民众安全和人权的情况下,民众应该被充分告知,并且在此类情况下有机会请求相关人工智能行为者或公共机构提供解释性信息。此外,对于影响其权利和自由的决定,个人应能够了解据以作出该决定的理由,并可以选择向能够审查和纠正该决定的私营公司或公共机构指定工作人员提出意见。对于由人工智能系统直接提供或协助提供的产品或服务,人工智能行为者应以适当和及时的方式告知用户。

39.从社会—技术角度来看,提高透明度有助于建设更加和平、公正、民主和包容的社会。提高透明度有利于开展公众监督,这可以减少腐败和歧视,还有助于发现和防止对人权产生的负面影响。透明度的目的是为相关对象提供适当的信息,以便他们理解和增进信任。具体到人工智能系统,透明度可以帮助人们了解人工智能系统各个阶段是如何按照该系统的具体环境和敏感度设定的。透明度还包括深入了解可以影响特定预测或决定的因素,以及了解是否具备适当的保证(例如安全或公平措施)。在存在会对人权产生不利影响的严重威胁的情况下,透明度要求可能还包括共享代码或数据集。

40. 可解释性是指让人工智能系统的结果可以理解,并提供阐释说明。人工智能系统的可解释性也指各个算法模块的输入、输出和性能的可解释性及其如何促成系统结果。因此,可解释性与透明度密切相关,结果和导致结果的子过程应以可理解和可追溯为目标,并且应切合具体情况。人工智能行为者应致力于确保开发出的算法是可以解释的。就对终端用户所产生的影响不是暂时的、容易逆转的或低风险的人工智能应用程序而言,应确保对导致所采取行动的任何决定作出有意义的解释,以便使这一结果被认为是透明的。

41.透明度和可解释性与适当的责任和问责措施以及人工智能系统的可信度密切相关。

【责任和问责】

42.人工智能行为者和会员国应根据国家法律和国际法,特别是会员国的人权义务,以及人工智能系统整个生命周期的伦理准则,包括在涉及其有效疆域和实际控制范围内的人工智能行为者方面,尊重、保护和促进人权和基本自由,并且还应促进对环境和生态系统的保护,同时承担各自的伦理和法律责任。以任何方式基于人工智能系统作出的决定和行动,其伦理责任和义务最终都应由人工智能行为者根据其在人工智能系统生命周期中的作用来承担。

43.应建立适当的监督、影响评估、审计和尽职调查机制,包括保护举报者,确保在人工智能系统的整个生命周期内对人工智能系统及其影响实施问责。技术和体制方面的设计都应确保人工智能系统(的运行)可审计和可追溯,特别是要应对与人权规范和标准之间的冲突以及对环境和生态系统福祉的威胁。

【认识和素养】

44.应通过由政府、政府间组织、民间社会、学术界、媒体、社区领袖和私营部门共同领导并顾及现有的语言、社会和文化多样性的开放且可获取的教育、公民参与、数字技能和人工智能伦理问题培训、媒体与信息素养及培训,促进公众对于人工智能技术和数据价值的认识和理解,确保公众的有效参与,让所有社会成员都能够就使用人工智能系统作出知情决定,避免受到不当影响。

45.了解人工智能系统的影响,应包括了解、借助以及促进人权和基本自由。这意味着在接触和理解人工智能系统之前,应首先了解人工智能系统对人权和权利获取的影响,以及对环境和生态系统的影响。

46.对数据的使用必须尊重国际法和国家主权。这意味着各国可根据国际法,对在其境内生成或经过其国境的数据进行监管,并采取措施,力争在依照国际法尊重隐私权以及其他人权规范和标准的基础上对数据进行有效监管,包括数据保护。

47.不同利益攸关方对人工智能系统整个生命周期的参与,是采取包容性办法开展人工智能治理、使惠益能够为所有人共享以及推动可持续发展的必要因素。利益攸关方包括但不限于政府、政府间组织、技术界、民间社会、研究人员和学术界、媒体、教育、政策制定者、私营公司、人权机构和平等机构、反歧视监测机构以及青年和儿童团体。应采用开放标准和互操作性原则,以促进协作。应采取措施,兼顾技术的变化和新利益攸关方群体的出现,并便于边缘化群体、社区和个人切实参与,同时酌情尊重土著人民对其数据的自我管理。

四、政策行动领域

48.以下政策领域所述的政策行动是对本建议书提出的价值观和原则的具体落实。主要行动是会员国出台有效措施,包括政策框架或机制等,并通过开展多种行动,例如鼓励所有利益攸关方根据包括联合国《工商企业与人权指导原则》在内的准则制定人权、法治、民主以及伦理影响评估和尽职调查工具,确保私营公司、学术和研究机构以及民间社会等其他利益攸关方遵守这些框架或机制。此类政策或机制的制定过程应包括所有利益攸关方并应考虑到各会员国的具体情况和优先事项。教科文组织可以作为合作伙伴,支持会员国制定、监测和评估政策机制。

49.教科文组织认识到,各会员国在科学、技术、经济、教育、法律、规范、基础设施、社会、文化和其他方面,处于实施本建议书的不同准备阶段。需要指出的是,这里的“准备”是一种动态。因此,为切实落实本建议书,教科文组织将:(1)制定准备状态评估方法,协助有关会员国确定其准备进程各个方面在特定时刻的所处状态;(2)确保支持有关会员国制定教科文组织人工智能技术伦理影响评估(EIA)方法,分享最佳做法、评估准则、其他机制和分析工作。

【政策领域1:伦理影响评估】

50.会员国应出台影响评估(例如伦理影响评估)框架,以确定和评估人工智能系统的惠益、关切和风险,并酌情出台预防、减轻和监测风险的措施以及其他保障机制。此种影响评估应根据本建议书提出的价值观和原则,确定对人权和基本自由(特别是但不限于边缘化和弱势群体或处境脆弱群体的权利、劳工权利)、环境和生态系统产生的影响以及伦理和社会影响,并促进公民参与。

51.会员国和私营公司应建立尽职调查和监督机制,以确定、防止和减轻人工智能系统对尊重人权、法治和包容性社会产生的影响,并说明如何处理这些影响。会员国还应能够评估人工智能系统对贫困问题产生的社会经济影响,确保人工智能技术在目前和未来的大规模应用不会加剧各国之间以及国内的贫富差距和数字鸿沟。为做到这一点,尤其应针对信息(包括私营实体掌握的涉及公共利益的信息)获取,实行可强制执行的透明度协议。会员国、私营公司和民间社会应调查基于人工智能的建议对人类决策自主权的社会学和心理学影响。对于经确认对人权构成潜在风险的人工智能系统,在投放市场之前,人工智能行为者应对其进行广泛测试,包括必要时,作为伦理影响评估的一部分,在真实世界的条件下进行测试。

52.会员国和工商企业应采取适当措施,监测人工智能系统生命周期的各个阶段,包括用于决策的算法的性能、数据以及参与这一过程的人工智能行为者,特别是在公共服务领域和需要与终端用户直接互动的领域,以配合开展伦理影响评估。人工智能系统评估的伦理方面应包含会员国的人权法义务。

53.各国政府应采用监管框架,其中特别针对公共管理部门提出人工智能系统伦理影响评估程序,以预测后果,减少风险,避免有害后果,促进公民参与并应对社会挑战。评估还应确立能够对算法、数据和设计流程加以评估并包括对人工智能系统的外部审查的适当监督机制,包括确定可审计性、可追溯性和可解释性。伦理影响评估应透明,并酌情向公众开放。

此类评估还应具备多学科、多利益攸关方、多文化、多元化和包容等特性。应要求公共管理部门引入适当的机制和工具,监测这些部门实施和/或部署的人工智能系统。

54.会员国应确保人工智能治理机制具备包容性、透明性、多学科、多边(包括跨界减轻损害和作出补救的可能性)和多利益攸关方等特性。特别是,治理应包括预测、有效保护、监测影响、执行和补救等方面。

55.会员国应通过实施有力的执行机制和补救行动,确保调查并补救人工智能系统造成的损害,从而确保人权和基本自由以及法治在数字世界与现实世界中同样得到尊重。此类机制和行动应包括私营公司和公营公司提供的补救机制。为此,应提升人工智能系统的可审计性和可追溯性。此外,会员国应加强履行这项承诺的机构能力,并应与研究人员和其他利益攸关方合作调查、防止并减少对于人工智能系统的潜在恶意使用。

56.鼓励会员国根据应用领域的敏感程度、对人权、环境和生态系统的预期影响以及本建议书提出的其他伦理考量,制定国家和地区人工智能战略,并考虑多种形式的柔性治理,例如人工智能系统认证机制和此类认证的相互承认。此类机制可以包括针对系统、数据以及伦理准则和伦理方面的程序要求的遵守情况开展不同层面的审计。另一方面,此类机制不得因行政负担过重而妨碍创新,或者让中小企业或初创企业、民间社会以及研究和科学组织处于不利地位。此类机制还应包括定期监测,在人工智能系统的整个生命周期内确保系统的稳健性、持续完整性和遵守伦理准则,必要时可要求重新认证。

57.会员国和公共管理部门应对现有和拟议的人工智能系统进行透明的自我评估,其中尤其应包括对采用人工智能是否适当进行评估,如果适当则应为确定适当的方法开展进一步评估,并评估采用这种方法是否会导致违反或滥用会员国的人权法义务,如果是则应禁止采用。

58.会员国应鼓励公共实体、私营公司和民间社会组织让不同利益攸关方参与其人工智能治理工作,并考虑增设独立的人工智能伦理干事岗位或某种其他机制,负责监督伦理影响评估、审计和持续监测工作,确保对于人工智能系统的伦理指导。鼓励会员国、私营公司和民间社会组织在教科文组织的支持下,创设独立的人工智能伦理干事网络,为国家、地区和国际层面的这一进程提供支持。

59.会员国应促进数字生态系统的发展和获取,以便在国家层面以合乎伦理和包容各方的方式发展人工智能系统,包括消除在人工智能系统生命周期准入方面的差距,同时推动国际合作。此类生态系统尤其包括数字技术和基础设施,在适当情况下还包括人工智能知识共享机制。

60.会员国应与国际组织、跨国公司、学术机构和民间社会合作建立机制,确保所有会员国积极参与关于人工智能治理的国际讨论,特别是中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。可以通过提供资金、确保平等的地区参与或任何其他机制来实现这一目标。此外,为确保人工智能论坛的包容性,会员国应为人工智能行为者的出入境提供便利,特别是中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家的行为者,以便其参加此类论坛。

61.修订现行的或制定新的有关人工智能系统的国家立法,必须遵守会员国的人权法义务,并在人工智能系统的整个生命周期内促进人权和基本自由。随着人工智能技术的发展,还应采取以下形式促进人权和基本自由:治理举措;关于人工智能系统的合作实践的良好范例;

国家及国际技术和方法准则。包括私营部门在内的各个部门在其关于人工智能系统的实践中必须利用现有的和新的文书以及本建议书,尊重、保护和促进人权和基本自由。

62.为执法、福利、就业、媒体和信息提供者、卫生保健和独立司法系统等对人权敏感的用途获取人工智能系统的会员国应建立机制,由独立的数据保护机关、行业监督机构和负责监督的公共机构等适当监督部门监测人工智能系统的社会和经济影响。

63.会员国应增强司法机构根据法治以及国际法和国际标准作出与人工智能系统有关决定(包括在其审议中使用人工智能系统的决定)的能力,同时确保坚持人类监督原则。司法机关如若使用人工智能系统,则需要有足够的保障措施,尤其要保障对基本人权的保护、法治、司法独立以及人类监督原则,并确保司法机关对人工智能系统的开发和使用值得信赖、以公共利益为导向且以人为本。

64.会员国应确保政府和多边组织在保障人工智能系统的安全和安保方面起到主导作用,并吸收多利益攸关方参与其中。具体而言,会员国、国际组织和其他相关机构应制定国际标准,列出可衡量和可检测的安全和透明度等级,以便能够客观评估人工智能系统并确定合规水平。此外,会员国和工商企业应对人工智能技术潜在安全和安保风险的战略研究提供持续支持,并应鼓励透明度、可解释性、包容和素养问题研究,在不同方面和不同层面(例如技术语言和自然语言)为这些领域投入更多资金。

65.会员国应实施政策,在人工智能系统的整个生命周期内确保人工智能行为者的行动符合国际人权法、标准和原则,同时充分考虑到当前的文化和社会多样性,包括地方习俗和宗教传统,并适当考虑到人权的优先性和普遍性。

66.会员国应建立机制,要求人工智能行为者披露并打击人工智能系统结果和数据中任何类型的陈规定型观念,无论是设计使然还是出于疏忽,确保人工智能系统的训练数据集不会助长文化、经济或社会不平等和偏见,不会散播虚假信息和错误信息,也不会干扰表达自由和信息获取。应特别关注数据匮乏地区。

67.会员国应实施政策,促进并提高人工智能开发团队和训练数据集的多样性和包容性,以反映其人口状况,确保人工智能技术及其惠益的平等获取,特别是对农村和城市地区的边缘化群体而言。

68.会员国应酌情制定、审查并调整监管框架,在人工智能系统生命周期的不同阶段对其内容和结果实施问责制和责任制。会员国应在必要时出台责任框架或澄清对现有框架的解释,确保为人工智能系统的结果和性能确定责任归属。此外,会员国在制定监管框架时,应特别考虑到最终责任和问责必须总是落实到自然人或法人身上,人工智能系统本身不应被赋予法人资格。为确保这一点,此类监管框架应符合人类监督原则,并确立着眼于人工智能系统生命周期不同阶段的人工智能行为者和技术流程的综合性方法。

69.为在空白领域确立规范或调整现有的法律框架,会员国应让所有人工智能行为者(包括但不限于研究人员、民间社会和执法部门的代表、保险公司、投资者、制造商、工程师、律师和用户)参与其中。这些规范可以发展成为最佳做法、法律和法规。进一步鼓励会员国采用样板政策和监管沙箱等机制,加快制定与新技术的飞速发展相适应的法律、法规和政策,包括对其进行定期审查,确保法律法规在正式通过之前能够在安全环境下进行测试。会员国应支持地方政府制定符合国家和国际法律框架的地方政策、法规和法律。

70.会员国应对人工智能系统的透明度和可解释性提出明确要求,以协助确保人工智能系统整个生命周期的可信度。此类要求应包括影响机制的设计和实施,其中要考虑到每个特定人工智能系统的应用领域的性质、预期用途、目标受众和可行性。

【政策领域3:数据政策】

71.会员国应努力制定数据治理战略,确保持续评估人工智能系统训练数据的质量,包括数据收集和选择过程的充分性、适当的数据安全和保护措施以及从错误中学习和在所有人工智能行为者之间分享最佳做法的反馈机制。

72.会员国应采取适当的保障措施,根据国际法保护隐私权,包括应对人们对于监控等问题的关切。会员国尤其应通过或实施可以提供适当保护并符合国际法的法律框架。会员国应大力鼓励包括工商企业在内的所有人工智能行为者遵守现行国际标准,特别是在伦理影响评估中开展适当的隐私影响评估,其中要考虑到预期数据处理产生的更广泛的社会经济影响,并在其系统中采用从设计入手保护隐私的做法。在人工智能系统的整个生命周期内应尊重、保护和促进隐私。

73.会员国应确保个人可以保留对于其个人数据的权利并得到相关框架的保护,此类框架尤其应预见到以下问题:透明度;对于处理敏感数据的适当保障;适当程度的数据保护;有效和实际的问责方案和机制;除符合国际法的某些情况外,数据主体对访问和删除其在人工智能系统中个人数据的权利和能力的充分享有;数据用于商业目的(例如精准定向广告)或跨境转移时完全符合数据保护法的适度保护;切实有效的独立监督,作为使个人可以掌控其个人数据、尊重数据主权并促进国际信息自由流通(包括数据获取)之惠益的数据治理机制的一部分。

74.会员国应制定数据政策或等效框架,或者加强现有政策或框架,以确保个人数据和敏感数据的充分安全,这类数据一旦泄露,可能会给个人造成特殊损害、伤害或困难。相关实例包括:与犯罪、刑事诉讼、定罪以及相关安全措施有关的数据;生物识别、基因和健康数据;与种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或任何其他特征有关的个人数据。

75.会员国应促进开放数据。在这方面,会员国应考虑审查其政策和监管框架,包括关于信息获取和政务公开的政策和监管框架,以便反映出人工智能特有的要求,并考虑促进相关机制,例如为公共资金资助或公有的数据和源代码以及数据信托建立开放式存储库,以支持安全、公平、合法与合乎伦理的数据分享等。

76.会员国应推动和促进将优质和稳健的数据集用于训练、开发和使用人工智能系统,并在监督数据集的收集和使用方面保持警惕。这包括在可能和可行的情况下投资建立黄金标准数据集,包括开放、可信、多样化、建立在有效的法律基础上并且按法律要求征得数据主体同意的数据集。应鼓励制定数据集标注标准,包括按性别和其他标准分列数据,以便于确定数据集的收集方式及其特性。

77.按照联合国秘书长数字合作高级别小组报告的建议,会员国应在联合国和教科文组织的支持下,酌情采用数字共享方式处理数据,提高工具、数据集和数据托管系统接口的互操作性,鼓励私营公司酌情与所有利益攸关方共享其收集的数据,以促进研究、创新和公共利益。会员国还应促进公共和私营部门建立协作平台,在可信和安全的数据空间内共享优质数据。

【政策领域4:发展与国际合作】

78.会员国和跨国公司应优先考虑人工智能伦理,在相关国际、政府间和多利益攸关方论坛上讨论与人工智能有关的伦理问题。

79. 会员国应确保人工智能在教育、科学、文化、传播和信息、卫生保健、农业和食品供应、环境、自然资源和基础设施管理、经济规划和增长等发展领域的应用符合本建议书提出的价值观和原则。

80.会员国应通过国际组织,努力为人工智能促进发展提供国际合作平台,包括提供专业知识、资金、数据、领域知识和基础设施,以及促进多利益攸关方之间的合作,以应对具有挑战性的发展问题,特别是针对中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。

81.会员国应努力促进人工智能研究和创新方面的国际合作,包括可以提升中低收入国家和其他国家(包括最不发达国家、内陆发展中国家和小岛屿发展中国家)研究人员的参与度和领导作用的研究和创新中心及网络。

82.会员国应通过吸收国际组织、研究机构和跨国公司参与,促进人工智能伦理研究,可以将这些研究作为公共和私营实体以合乎伦理的方式使用人工智能系统的基础,包括研究具体伦理框架在特定文化和背景下的适用性,以及根据这些框架开发技术上可行的解决方案的可能性。

83.会员国应鼓励在人工智能领域开展国际合作与协作,以弥合地缘技术差距。应在充分尊重国际法的前提下,在会员国与其民众之间、公共和私营部门之间以及技术上最先进和最落后的国家之间,开展技术交流和磋商。

【政策领域5:环境和生态系统】

84.在人工智能系统的整个生命周期内,会员国和工商企业应评估对环境产生的直接和间接影响,包括但不限于其碳足迹、能源消耗以及为支持人工智能技术制造而开采原材料对环境造成的影响,并应减少人工智能系统和数据基础设施造成的环境影响。会员国应确保所有人工智能行为者遵守有关环境的法律、政策和惯例。

85.会员国应在必要和适当时引入激励措施,确保开发并采用基于权利、合乎伦理、由人工智能驱动的解决方案抵御灾害风险;监测和保护环境与生态系统,并促进其再生;保护地球。这些人工智能系统应在其整个生命周期内让地方和土著社区参与,并应支持循环经济做法以及可持续的消费和生产模式。

例如,在必要和适当时可将人工智能系统用于以下方面:

(a)支持自然资源的保护、监测和管理。

(b)支持与气候有关问题的预测、预防、控制和减缓。

(c)支持更加高效和可持续的粮食生态系统。

(d)支持可持续能源的加速获取和大规模采用。

(e)促成并推动旨在促进可持续发展的可持续基础设施、可持续商业模式和可持续金融主流化。

(f)检测污染物或预测污染程度,协助相关利益攸关方确定、规划并实施有针对性的干预措施,防止并减少污染及曝露风险。

86.会员国在选择人工智能方法时,鉴于其中一些方法可能具有数据密集型或资源密集型特点以及对环境产生的不同影响,应确保人工智能行为者能够根据相称性原则,倾向于使用节约数据、能源和资源的人工智能方法。应制定要求,确保有适当证据表明一项人工智能应用程序将产生这种预期效果,或一项人工智能应用程序的附加保障措施可以为使用该应用程序的合理性提供支撑。假如做不到这一点,则必须遵循预防原则,而且在会对环境造成极其严重的负面影响的情况下,不得使用人工智能。

【政策领域6:性别】

87.会员国应确保数字技术和人工智能促进实现性别平等的潜能得到充分发挥,而且必须确保在人工智能系统生命周期的任何阶段,女童和妇女的人权和基本自由及其安全和人格不受侵犯。此外,伦理影响评估应包含横向性别平等视角。

88.会员国应从公共预算中划拨专项资金,用于资助促进性别平等的计划,确保国家数字政策包含性别行动计划,并制定旨在支持女童和妇女的相关政策,例如劳动力教育政策,以确保她们不会被排除在人工智能驱动的数字经济之外。应考虑并落实专项投资,用于提供有针对性的计划和有性别针对性的语言,从而为女童和妇女参与科学、技术、工程和数学(STEM)领域,包括信息和通信技术(信通技术)学科,以及为她们的就业准备、就业能力、平等的职业发展和专业成长,提供更多机会。

89.会员国应确保人工智能系统推动实现性别平等的潜能得到实现。会员国应确保这些技术不会加剧,而是消除模拟世界多个领域中已经存在的巨大性别差距。这些差距包括:性别工资差距;某些职业和活动中不平等的代表性;人工智能领域高级管理职位、董事会或研究团队中的代表性缺失;教育差距;数字和人工智能的获取、采用、使用和负担能力方面的差距;以及无偿工作和照料责任在社会中的不平等分配。

90.会员国应确保性别陈规定型观念和歧视性偏见不会被移植入人工智能系统,而且还应对其加以鉴别和主动纠正。必须努力避免技术鸿沟对以下方面产生复合性负面影响:实现性别平等和避免暴力侵害,例如针对妇女和女童以及代表性不足群体的骚扰、欺凌和贩运,包括在线上领域。

91.会员国应鼓励女性创业、参与并介入人工智能系统生命周期的各个阶段,具体办法是提供并促进经济和监管方面的激励措施以及其他激励措施和支持计划,制定目的是在学术界的人工智能研究方面实现性别均衡的参与、在数字和人工智能公司高级管理职位、董事会和研究团队中实现性别均衡的代表性的政策。会员国应确保(用于创新、研究和技术的)公共资金流向具有包容性和明确的性别代表性的计划和公司,并利用平权行动原则鼓励私人资金朝着类似方向流动。应制定并执行关于无骚扰环境的政策,同时鼓励传播关于如何在人工智能系统的整个生命周期内促进多样性的最佳做法。

92.会员国应促进学术界和产业界人工智能研究领域的性别多样性,为女童和妇女进入该领域提供激励措施,建立机制消除人工智能研究界的性别陈规定型观念和骚扰行为,并鼓励学术界和私营实体分享关于如何提高性别多样性的最佳做法。

93.教科文组织可以协助建立最佳做法资料库,鼓励女童、妇女和代表性不足的群体参与人工智能系统生命周期的各个阶段。

【政策领域7:文化】

94.鼓励会员国酌情将人工智能系统纳入物质、文献和非物质文化遗产(包括濒危语言以及土著语言和知识)的保护、丰富、理解、推广、管理和获取工作,具体办法包括酌情出台或更新与在这些领域应用人工智能系统有关的教育计划,以及确保采用针对机构和公众的参与式方法。

95.鼓励会员国审查并应对人工智能系统产生的文化影响,特别是自动翻译和语音助手等自然语言处理(NLP)应用程序给人类语言和表达的细微差别带来的影响。此类评估应为设计和实施相关战略提供参考,通过弥合文化差距、增进人类理解以及消除因减少使用自然语言等因素造成的负面影响,最大限度地发挥人工智能系统的惠益。减少使用自然语言可能导致濒危语言、地方方言以及与人类语言和表达形式有关的语音和文化差异的消失。

96.随着人工智能技术被用于创造、生产、推广、传播和消费多种文化产品和服务,会员国应促进针对艺术家和创意从业人员的人工智能教育和数字培训,以评估人工智能技术在其专业领域的适用性,并推动设计和应用适当的人工智能技术,同时铭记保护文化遗产、多样性和艺术自由的重要性。

97.会员国应促进当地文化产业和文化领域的中小企业对于人工智能工具的认识和评价,避免文化市场集中化的风险。

98.会员国应吸收技术公司和其他利益攸关方参与进来,促进文化表现形式的多样化供应和多元化获取,特别要确保算法建议可以提高本地内容的知名度和可见性。

99.会员国应促进在人工智能和知识产权的交汇点上开展新的研究,例如确定是否或如何对通过人工智能技术创作的作品给予知识产权保护。会员国还应评估人工智能技术如何影响作品被用于研究、开发、培训或实施人工智能应用程序的知识产权所有者的权利或利益。

100.会员国应鼓励国家级博物馆、美术馆、图书馆和档案馆使用人工智能系统,以突出其藏品,强化其图书馆、数据库和知识库,并允许用户访问。

【政策领域8:教育和研究】

101.会员国应与国际组织、教育机构、私营实体和非政府实体合作,在各个层面向所有国家的公众提供充分的人工智能素养教育,以增强人们的权能,减少因广泛采用人工智能系统而造成的数字鸿沟和数字获取方面的不平等。

102.会员国应促进人工智能教育“必备技能”的掌握,例如基本读写、计算、编码和数字技能、媒体与信息素养、批判性思维和创意思维、团队合作、沟通、社会情感技能和人工智能伦理技能,特别是在相关技能教育存在明显差距的国家及国内地区或区域。

103.会员国应促进关于人工智能发展的一般性宣传计划,其中包括数据、人工智能技术带来的机会和挑战、人工智能系统对人权(包括儿童权利)的影响及其意义。这些计划对于非技术群体和技术群体来说都应简明易懂。

104.会员国应鼓励开展关于以负责任和合乎伦理的方式将人工智能技术应用于教学、教师培训和电子学习等方面的研究活动,以增加机会,减轻这一领域的挑战和风险。在开展这些研究活动的同时,应充分评估教育质量以及人工智能技术的应用对于学生和教师的影响。会员国还应确保人工智能技术可以增强师生的权能和体验,同时铭记关系和社交方面以及传统教育形式的价值对于师生关系以及学生之间的关系至关重要,在讨论将人工智能技术应用于教育时应考虑到这一点。当涉及到监测、评估能力或预测学习者的行为时,用于学习的人工智能系统应符合严格的要求。人工智能应依照相关的个人数据保护标准支持学习过程,既不降低认知能力,也不提取敏感信息。在学习者与人工智能系统的互动过程中收集到的为获取知识而提交的数据,不得被滥用、挪用或用于犯罪,包括用于商业目的。

105.会员国应提升女童和妇女、不同族裔和文化、残障人士、边缘化和弱势群体或处境脆弱群体、少数群体以及没能充分得益于数字包容的所有人在各级人工智能教育计划中的参与度和领导作用,监测并与其他国家分享这方面的最佳做法。

106.会员国应根据本国教育计划和传统,为各级教育开发人工智能伦理课程,促进人工智能技术技能教育与人工智能教育的人文、伦理和社会方面的交叉协作。应以当地语言(包括土著语言)开发人工智能伦理教育的在线课程和数字资源,并考虑到环境多样性,特别要确保采用残障人士可以使用的格式。

107.会员国应促进并支持人工智能研究,特别是人工智能伦理问题研究,具体办法包括投资于此类研究或制定激励措施推动公共和私营部门投资于这一领域等,同时承认此类研究可极大地推动人工智能技术的进一步发展和完善,以促进落实国际法和本建议书中提出的价值观和原则。会员国还应公开推广以合乎伦理的方式开发人工智能的研究人员和公司的最佳做法,并与之合作。

108.会员国应确保人工智能研究人员接受过研究伦理培训,并要求他们将伦理考量纳入设计、产品和出版物中,特别是在分析其使用的数据集、数据集的标注方法以及可能投入应用的成果的质量和范围方面。

109.会员国应鼓励私营公司为科学界获取其数据用于研究提供便利,特别是在中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。这种获取应遵守相关隐私和数据保护标准。

110.为确保对人工智能研究进行批判性评估并适当监测可能出现的滥用或负面影响,会员国应确保人工智能技术今后的任何发展都应建立在严谨和独立的科学研究基础上,并吸收除科学、技术、工程和数学(STEM)之外的其他学科,例如文化研究、教育、伦理学、国际关系、法律、语言学、哲学、政治学、社会学和心理学等,促进开展跨学科的人工智能研究。

111.认识到人工智能技术为助力推进科学知识和实践提供了大好机会,特别是在以往采用模型驱动方法的学科中,会员国应鼓励科学界认识到使用人工智能的惠益、不足和风险;这包括努力确保通过数据驱动的方法、模型和处理方式得出的结论完善可靠。此外,会员国应欢迎并支持科学界在为政策建言献策和促进人们认识到人工智能技术的优缺点方面发挥作用。

【政策领域9:传播和信息】

112.会员国应利用人工智能系统改善信息和知识的获取。这可包括向研究人员、学术界、记者、公众和开发人员提供支持,以加强表达自由、学术和科学自由、信息获取,加大主动披露官方数据和信息的力度。

113.在自动内容生成、审核和策管方面,会员国应确保人工智能行为者尊重并促进表达自由和信息获取自由。适当的框架,包括监管,应让线上通信和信息运营商具有透明度,并确保用户能够获取多样化的观点,以及迅速告知用户为何对内容进行删除或其他处理的相关程序和让用户能够寻求补救的申诉机制。

114.会员国应投资于并促进数字以及媒体与信息素养技能,加强理解人工智能系统的使用和影响所需的批判性思维和能力,从而减少和打击虚假信息、错误信息和仇恨言论。此种努力应包括加强对推荐系统的积极和潜在有害影响的了解和评估。

115.会员国应为媒体创造有利的环境,使媒体有权利和资源切实有效地报道人工智能系统的利弊,并鼓励媒体在其业务中以合乎伦理的方式使用人工智能系统。

【政策领域10:经济和劳动】

116.会员国应评估并处理人工智能系统对所有国家劳动力市场的冲击及其对教育要求的影响,同时特别关注经济属于劳动密集型的国家。这可以包括在各级教育中引入更广泛的跨学科“核心”技能,为当前的劳动者和年轻世代提供可以在飞速变化的市场中找到工作的公平机会,并确保他们对于人工智能系统的伦理问题有所认识。除了传授专业技术技能和低技能任务知识之外,还应教授“学会如何学习”、沟通、批判性思维、团队合作、同理心以及在不同领域之间灵活运用知识的能力等技能。关键是要在有高需求的技能方面保持透明度,并围绕这些技能更新学校课程。

117.会员国应支持政府、学术机构、职业教育与培训机构、产业界、劳工组织和民间社会之间的合作协议,以弥合技能要求方面的差距,让培训计划和战略与未来工作的影响和包括中小企业在内的产业界的需求保持一致。应促进以项目为基础的人工智能教学和学习方法,以便公共机构、私营公司、大学和研究中心之间能够建立伙伴关系118.会员国应与私营公司、民间组织和其他利益攸关方(包括劳动者和工会)合作,确保高风险员工可以实现公平转型。这包括制定技能提升计划和技能重塑计划,建立在过渡期内保留员工的有效机制,以及为无法得到再培训的员工探索尝试“安全网”计划。会员国应制定并实施计划,以研究和应对已确定的各项挑战,其中可能包括技能提升和技能重塑、加强社会保障、主动的行业政策和干预措施、税收优惠、新的税收形式等。会员国应确保有足够的公共资金来支持这些计划。应审慎审查并在必要时修改税制等相关法规,消解基于人工智能的自动化造成的失业后果。

119.会员国应鼓励并支持研究人员分析人工智能系统对于当地劳动环境的影响,以预测未来的趋势和挑战。这些研究应采用跨学科方法,调查人工智能系统对经济、社会和地域因素、人机互动和人际关系产生的影响,以便就技能重塑和重新部署的最佳做法提出建议。

120.会员国应采取适当措施,确保竞争性市场和消费者保护,同时考虑可在国家、地区和国际各级采取何种措施和机制来防止在人工智能系统的整个生命周期内滥用与人工智能系统有关的市场支配地位,包括垄断,无论是数据、研究、技术还是市场垄断。会员国应防止由此造成的不平等,评估相关市场,并促进竞争性市场。应适当考虑中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家,这些国家由于缺乏基础设施、人力资源能力和规章制度等要素,面临滥用市场支配地位行为的风险更大,也更容易因之受到影响。

在已制定或通过人工智能伦理标准的国家从事人工智能系统开发的人工智能行为者,在出口这些产品以及在可能没有此类标准的国家开发或应用其人工智能系统时,应遵守这些标准,并遵守适用的国际法以及这些国家的国内立法、标准和惯例。

【政策领域11:健康和社会福祉】

121.会员国应努力利用有效的人工智能系统来改善人类健康并保护生命权,包括减少疾病的爆发,同时建立并维护国际团结,以应对全球健康风险和不确定性,并确保在卫生保健领域采用人工智能系统的做法符合国际法及其人权法义务。会员国应确保参与卫生保健人工智能系统的行为者会考虑到患者与家属的关系以及患者与医护人员关系的重要性。

122.会员国应确保与健康、特别是精神健康有关的人工智能系统的开发和部署适当关注儿童和青年,并受到监管,使其做到安全、有效、高效、经过科学和医学证明并能促进循证创新和医学进步。此外,在数字健康干预的相关领域,大力鼓励会员国主动让患者及其代表参与系统开发的所有相关步骤。

123.会员国应特别注意通过以下方式规范人工智能应用程序中用于卫生保健的预测、检测和治疗方案:

(a)确保监督,以尽可能减少和减轻偏见;

(b)在开发算法时,确保在所有相关阶段将专业人员、患者、护理人员或服务用户作为“领域专家”纳入团队;

(c)适当注意因可能需要医学监测而产生的隐私问题,并确保所有相关的国家和国际数据保护要求得到满足;

(d)确保建立有效机制,让被分析的数据主体了解对其个人数据的使用和分析并给予知情同意,同时又不妨碍他们获取卫生保健服务;

(e)确保人工护理以及最终的诊断和治疗决定一律由人类作出,同时肯定人工智能系统也可以协助人类工作;

(f)必要时确保在投入临床使用之前由伦理研究委员会对人工智能系统进行审查。

124.会员国应研究人工智能系统对于心理健康的潜在危害所产生的影响及如何加以调控的问题,例如深度抑郁、焦虑、社会隔离、成瘾、贩运、激进化和误导等。

125.会员国应在研究的基础上,针对机器人的未来发展,制定关于人机互动及其对人际关系所产生影响的准则,并特别关注人类身心健康。尤其应关注应用于卫生保健以及老年人和残障人士护理的机器人、应用于教育的机器人、儿童用机器人、玩具机器人、聊天机器人以及儿童和成人的陪伴机器人的使用问题。此外,应利用人工智能技术的协助来提高机器人的安全性,增进其符合人体工程学的使用,包括在人机工作环境中。应特别注意到利用人工智能操控和滥用人类认知偏差的可能性。

126.会员国应确保人机互动遵守适用于任何其他人工智能系统的相同价值观和原则,包括人权和基本自由、促进多样性和保护弱势群体或处境脆弱群体。应考虑与人工智能驱动的神经技术系统和脑机接口有关的伦理问题,以维护人的尊严和自主权。

127.会员国应确保用户能够轻松识别与自己互动的对象是生物,还是模仿人类或动物特征的人工智能系统,并且能够有效拒绝此类互动和要求人工介入。

128.会员国应实施政策,提高人们对于人工智能技术以及能够识别和模仿人类情绪的技术拟人化的认识,包括在提及这些技术时所使用的语言,并评估这种拟人化的表现形式、伦理影响和可能存在的局限性,特别是在人机互动的情况下和涉及到儿童时。

129.会员国应鼓励并促进关于人与人工智能系统长期互动所产生影响的合作研究,特别注意这些系统对儿童和青年的心理和认知可能产生的影响。在开展此类研究时,应采用多种规范、原则、协议、学科方法,评估行为和习惯的改变,并审慎评估下游的文化和社会影响。

此外,会员国应鼓励研究人工智能技术对于卫生系统的业绩和卫生结果产生的影响。

130.会员国和所有利益攸关方应建立机制,让儿童和青年切实参与到关于人工智能系统对其生活和未来所产生影响的对话、辩论和决策中。

五、监测和评估

131.会员国应根据本国具体国情、治理结构和宪法规定,采用定量和定性相结合的方法,以可信和透明的方式监测和评估与人工智能伦理问题有关的政策、计划和机制。为支持会员国,教科文组织可以从以下方面作出贡献:

(a)制定以严谨的科学研究为基础且以国际人权法为根据的教科文组织人工智能技术伦理影响评估(EIA)方法,关于在人工智能系统生命周期各个阶段实施该方法的指南,以及用于支持会员国对政府官员、政策制定者和其他相关人工智能行为者进行伦理影响评估方法培训的能力建设材料;

(b)制定教科文组织准备状态评估方法,协助会员国确定其准备进程各个方面在特定时刻的所处状态;

(c)制定教科文组织关于在事先和事后对照既定目标评估人工智能伦理政策和激励政策效力和效率的方法;

(d)加强关于人工智能伦理政策的基于研究和证据的分析和报告;

(e)收集和传播关于人工智能伦理政策的进展、创新、研究报告、科学出版物、数据和统计资料,包括通过现有举措,以支持最佳做法分享和相互学习,推动实施本建议书。

132. 监测和评估进程应确保所有利益攸关方的广泛参与,包括但不限于弱势群体或处境脆弱群体。应确保社会、文化和性别多样性,以期改善学习过程,加强调查结果、决策、透明度和成果问责制之间的联系。

133.为促进与人工智能伦理有关的最佳政策和做法,应制定适当的工具和指标,以便根据商定的标准、优先事项和具体目标,包括关于处境不利者、边缘化群体和弱势群体或处境脆弱群体的具体目标,评估此类政策和做法的效力和效率,以及人工智能系统在个人和社会层面产生的影响。人工智能系统及相关人工智能伦理政策和做法的影响监测和评估应以与有关风险相称的系统方法持续开展。这项工作应以国际商定的框架为基础,涉及对于私营和公共机构、提供方和计划的评估,包括自我评估,以及开展跟踪研究和制定一系列指标。数据收集和处理工作应遵守国际法、关于数据保护和数据隐私的国家立法以及本建议书概述的价值观和原则。

134.尤其是,会员国不妨考虑可行的监测和评估机制,例如:伦理问题委员会、人工智能伦理问题观察站、记录符合人权与合乎伦理的人工智能系统发展情况或在教科文组织各职能领域通过恪守伦理原则为现有举措作出贡献的资料库、经验分享机制、人工智能监管沙箱和面向所有人工智能行为者的评估指南,以评估会员国对于本文件所述政策建议的遵守情况。

六、本建议书的使用和推广

135.会员国和本建议书确定的所有其他利益攸关方应尊重、促进和保护本建议书提出的人工智能伦理价值观、原则和标准,并应采取一切可行步骤,落实本建议书的政策建议。

136.会员国应与在本建议书的范围和目标范畴内开展活动的所有相关国家和国际政府组织、非政府组织、跨国公司和科学组织合作,努力扩大并充实围绕本建议书采取的行动。

制定教科文组织伦理影响评估方法和建立国家人工智能伦理委员会,可以作为这方面的重要手段。

七、本建议书的宣传

137.教科文组织是负责宣传和传播本建议书的主要联合国机构,因此将与其他相关联合国实体合作开展工作,同时尊重它们的任务授权并避免工作重复。

138.教科文组织,包括其世界科学知识与技术伦理委员会(COMEST)、国际生物伦理委员会(IBC)和政府间生物伦理委员会(IGBC)等机构,还将与其他国际、地区和分地区政府组织和非政府组织开展合作。

139.尽管在教科文组织范围内,促进和保护任务属于各国政府和政府间机构的职权范围,但民间社会将是倡导公共部门利益的重要行为者,因此教科文组织需要确保和促进其合法性。

八、最后条款

140.应将本建议书作为一个整体来理解,各项基本价值观和原则应被视为相互补充、相互关联。

141.本建议书中的任何内容既不得解释为取代、改变或以其他方式损害各国根据国际法所负义务或所享权利,也不得解释为允许任何国家、其他政治、经济或社会行为者、群体或个人参与或从事任何有悖人权、基本自由、人的尊严以及对生物和非生物的环境与生态系统所抱之关切的活动或行为。

全球环境治理前沿资讯

 

绿会融媒LOGO

【绿讯】是中国绿发会国际部发挥智库功能、为了推动中国深度参与全球环境治理推出的一系列全球环境治理的最新的动态。本文资讯摘自联合国教科文组织发布的会议文件。仅供参考。

【拓展阅读】

绿会建言获UNESCO采纳:生物多样性写入人工智能伦理问题建议书(2021-11-27)

https://www.thepaper.cn/newsDetail_forward_15587198

《人工智能伦理问题建议书》出台过程一览(2021-11-27)

https://baijiahao.baidu.com/s?id=1717586373427536377

周晋峰:就UNESCO人工智能伦理征求意见,谈全面践行生态文明(2020/9/8)

http://www.cbcgdf.org/NewsShow/4854/13747.html

中国绿发会生物与科学伦理工作委员会征集对《人工智能伦理问题建议书草案》建议(2020-07-28)

https://www.thepaper.cn/newsDetail_forward_8467531

中国绿发会BASE建言联合国教科文组织人工智能伦理应纳入生物多样性及公共卫生安全新共识(2020-07-27)

https://www.sohu.com/a/410010586_100001695

人工智能促进经济高质量发展:机理、问题与对策

摘要:人工智能技术具有渗透性、协同性、替代性、创造性等技术—经济特征,人工智能促进经济高质量发展的机理可概括为对三类产业的扩张效应、赋能效应和活化效应。其中,核心产业扩张效应与融合产业赋能效应交互构建了促进高质量发展的动态循环过程,潜在关联产业活化效应则通过提供非匹配、非集约、非规整、非公平问题解决方案促进经济社会高质量发展。当前,中国在世界人工智能领域第一梯队的地位愈发巩固,技术创新处于关键突破期,在地域空间上则形成了三大城市群为重要引擎、沿海地区快速增长、内陆地区稳定增长的发展格局。我国人工智能促进经济高质量发展还存在核心产业低质扩张、融合产业低效赋能、潜在关联产业低迷活化、相关社会伦理道德规范缺失、相关人才短缺且结构不合理等问题。为此,我国要推进基础理论研究和关键共性技术开发,提高科技自立自强能力;优化行业发展环境,促进产业生态良性发展;完善相关法律法规和伦理规范制度,促进人工智能“科技向善”;构建高素质人才培养体系和人才流动机制,促进包容性均衡发展;加快人工智能创新应用先导区和创新发展试验区建设,推进改革试点和应用示范。

关键词:人工智能;高质量发展;技术创新;核心产业;融合产业;潜在关联产业

基金项目:国家社会科学基金重点项目“新技术革命背景下全球创新链的调整及其影响研究”(19AJY013)

 

人工智能(AI)是指研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。作为新一代信息技术革命的代表技术之一,人工智能利用计算设备模拟人类思维决策过程,广泛应用了计算机、数学、物理学、生物学、逻辑学等学科的理论与方法。自1955年达特茅斯会议首次提出“人工智能”概念以来,人工智能经历了60余年的曲折发展,研究重点从早期(1956—1974年)基于符号主义的逻辑推理、启发式搜索,到中期(1974—2006年)符号主义与连接主义融合催生的神经元网络方法、专家系统,发展到近期(2006年至今)基于行为主义纲领的深度学习方法突破所带来的多领域广泛应用[1]。1974年以来的人工智能发展都可归类为连接主义,但2006年之前的连接主义主要对人类大脑活动进行模仿,并没有合理借鉴大脑产生智能的机制。2006年,深度学习方法在卷积神经网络等模型和参数训练技巧等方面取得突破,同时信息设备、算法算力、使用数据也迎来了革新、进步与增长,人工智能实现了跨越式的发展。目前,人工智能研究领域主要分为六大类:计算机视觉、自然语言处理、机器学习、认知及推理、机器人、博弈及伦理。人工智能已经成为世界各国竞争角逐的焦点,其发展水平是国家核心竞争力的重要体现,将对经济发展、社会进步、国际政治经济格局产生深远影响。

党的十九大报告明确提出,推动互联网、大数据、人工智能和实体经济深度融合,作为我国深化供给侧结构性改革、建设制造强国、促进经济高质量发展的重要举措。党的十九届五中全会通过的《中共中央关于制定国民经济和社会发展第十四个五年规划和二〇三五年远景目标的建议》强调,要推动互联网、大数据、人工智能等同各产业深度融合,这是建设制造强国、质量强国、网络强国、数字中国重要内容,是提高经济质量效益和核心竞争力的关键。本文对人工智能如何促进经济高质量发展的机理进行探讨,分析人工智能促进经济高质量发展存在的问题,提出相应的对策建议。

一、人工智能促进经济高质量发展的机理分析

习近平总书记在十九届中央政治局第九次集体学习时强调,人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。人工智能具有溢出带动性很强的“头雁”效应,在移动互联网、大数据、超级计算、传感网、脑科学等新理论新技术的驱动下,人工智能加速发展,呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征,正在对经济发展、社会进步、国际政治经济格局等方面产生重大而深远的影响。我国经济已由高速增长阶段转向高质量发展阶段,迫切需要新一代人工智能等重大创新添薪续力,要推进人工智能和产业发展融合,为高质量发展提供新动能[2]。

(一)人工智能的技术—经济特征

人工智能技术既具有一般通用型信息通信技术所具有的渗透性与替代性特征,同时还具备与各经济要素协同配合提升经济效率的协同性特征,以及替代人类脑力工作的创造性特征。

1.渗透性。作为一种兼具通用性、基础性和使能性的数字技术,人工智能具备与经济社会各行业、生产生活各环节相互融合的潜能,这种广泛应用于经济社会各领域的特征被定义为通用型技术的渗透性。在发展初级阶段,人工智能只能应用于简单场景,解决一些抽象概念性的游戏问题,但随着人工智能技术发展,人工智能被越来越多地应用于多元场景、复杂场景,问题解决边界也向实际应用拓展。这种应用复杂化的趋势即是对人工智能技术渗透作用的印证。渗透作用是通用型技术最基本的技术—经济特征,也是计算技术领域重大创新能够引发技术革命,带来技术—经济范式转换的技术基础。渗透性特征决定人工智能具有对经济增长产生广泛性、全局性影响的潜力。在可预见的未来,人工智能技术将更加全面地融入日常生产生活活动之中,成为经济社会不可替代的一部分。

2.协同性。人工智能的协同性在一定程度是其渗透效应的具体实现。人工智能技术作为通用型技术渗透进入经济社会各个方面,在生产领域,人工智能技术的应用可以提升资本、劳动、技术等要素之间的匹配度,加强上游技术研发、中游工程实现、下游应用反馈各个生产环节之间的协同,从而提高运行效率。在消费领域,人工智能技术可以实现对用户消费习惯与消费需求的自动画像,完成需求与供给的智能匹配,进一步释放消费潜力的同时,实现经济的高质量增长。总的来说,人工智能的协同性特征体现在对经济运行效率的提升。蔡跃洲等核算了中国在过去三十年中ICT资本对增长的贡献率,并使用格兰杰因果检验印证了ICT资本与全要素生产率TEP增长具有因果关系,ICT资本通过与各个经济要素的协同促进了经济效率提升,最终推动了GDP的增长[3]。

3.替代性。随着设备设施与技术研发的持续发展,信息通信技术(ICT)产品相对价格持续下降,从而出现ICT产品对其他投资的大规模替代。如芯片领域的摩尔定律预言集成电路晶体管数目约18个月便会增加一倍,这使得芯片在能够解决更多问题的同时成本持续下降,实现对非ICT资本的不断替代。人工智能除了对非ICT资本的替代效应外,更能实现对劳动要素的直接替代,蔡跃洲等将人工智能对就业的影响分解为负面的替代效应与正面的抑制效应,并得出结论认为就业总量基本稳定的趋势还将延续一段时间,人工智能完全替代人类劳动的极端情形中短期不会出现[4]。人工智能技术持续发挥替代效应,在作为独立要素不断积累的同时,对其他资本要素、劳动要素进行替代,其对经济发展的支撑作用由此不断强化。

4.创造性。生产自动化能够实现对一些高强度、高难度的持续劳动进行替代,而人工智能之所以引起人们对就业前景强烈担忧的原因更在于其能够实现对人类脑力工作、创造性活动的替代。当下人工智能技术已经被广泛应用于药物发现及筛选、材料识别及模拟等科研活动,更是在金融、数字建模、应急救援、音乐绘画等领域被广泛赋予分析决策甚至是创造创新的权力,展现出人类历史上从未有过的来自人类头脑之外的创造力量。人工智能的创造性可以生产出额外的知识,增加人类整体智慧总量,从而促进技术进步,提高经济效率。针对人工智能将完全取代人类工作的担忧,Holford对人工智能的创造性进行了分析,认为人工智能技术主要通过符号解释、形式化和意义捕捉的方式获取知识,对于人类整体知识和隐性知识的复杂性、创造性较难模仿。在不出现颠覆性技术突破的情况下,人工智能技术无法实现对人类创造的完全替代[5]。

(二)人工智能促进经济高质量发展的机理与效应

人工智能代表了未来经济发展的无限可能性,现有观点普遍认为人工智能可以通过提高生产率促进经济增长。在微观个体活动方面,人工智能发展传统自动化为“智能自动化”,持续释放个体创造力,极大提升劳动生产率。在中观行业生产方面,人工智能不断提升生产能力与资本效率,对行业进行分析并作出控制决策,解决某些行业生产准确率低、工作量大、设备闲置、安全性差等一系列问题。在宏观经济发展方面,人工智能促进管理效率、资源配置效率和社会交易效率的提升,推动创新并提高全要素生产率,深化分工形式,大大拓展产品创新的空间,从提升分工专业化效率转向提升分工多样化效率,从多样性角度拓展生产可能性边界[6-7]。师博从生产、分配、交换、消费四个方面探讨了人工智能充分契合创新、协调、绿色、开放、共享的新发展理念,在生产环节发挥创新效应与技术外溢效应实现创新发展;在分配环节优化分配结构同时提升分配效率深化共享发展;在交换环节,通过平台经济、国际共建等方式实现协调、开放发展;在消费环节改进消费质量,加速绿色消费,贯彻绿色发展理念。人工智能在贯彻新发展理念的同时,与经济社会充分融合,实现经济的高质量发展[8]。任保平等聚焦人工智能与实体经济的融合增长效应,从培育高端要素、优化要素禀赋结构的供给侧到普及智能产品与服务、多元化需求渠道的需求侧,双向探讨人工智能对实体经济的融合促进作用,并结合我国当前发展阶段,分析人工智能对传统产业、新兴产业、新商业模式以及供需协同的带动作用,提出构建融合支持体系、加强新基建、培育产业环境、优化投融资支持、深化对外开放等建议[9]。罗以洪基于数字产业化、产业数字化、数字化治理的模型框架,结合宏观理论中四部门经济的各个部门与要素特征,提出政府、消费者、生产者、国外消费者、国外生产者以及金融机构四部门数字经济模型,细化资源型、技术型、融合型、服务型四种数字经济类型,提出具有针对性的数字经济高质量发展路径与对策建议[10]。

已有研究对人工智能如何促进经济高质量发展的机理分析主要集中在以下几个角度:一是基于微观、中观、宏观三重视角进行分析,其具有坚实的经济逻辑支撑,易于进行理论分析,并提出相关政策建议;二是从生产、分配、交换、消费等经济环节进行分析,其更加全面地聚焦经济社会整体的高质量发展,并与新发展理念有着高契合度;三是以中国信息通信研究院提出的数字经济分析框架(数字产业化—产业数字化—数据价值化—数字化治理)为基础进行分析,这一角度具备国际通用性,同时在实证分析方面具有广泛的研究基础,有较多的研究基于相同框架对国内外不同主体进行数字经济测算。与此同时,上述角度都存在一定缺陷:微观、中观、宏观三重视角难以聚焦人工智能产业如何实现发展的高质量,经济环节视角则难以提出有针对性的促进建议,并且在量化发展质量、实证分析路径效应方面二者都有着较大的局限性。数字经济框架则是为数字经济所设计,套用于人工智能产业需要进一步探讨其适配性。

本文基于人工智能的技术—经济特征,对经济社会产业进行划分,并根据划分结构针对性分析人工智能对经济高质量发展的促进机理。经济社会产业可以分解为三种类型,即核心产业、融合产业、潜在关联产业(见图1)。首先,作为一项系统性较强的数字技术,人工智能催生了一系列配套核心产业,其产品服务涵盖了上游研发到下游应用的产业链各环节。其次,人工智能通过发挥渗透性、替代性、协同性、创造性四大技术—经济特征,对一些已有产业进行技术赋能,进而创造出智慧农业、智能制造、智慧建筑、智慧医疗等一大批产业融合新生态。最后,针对目前经济社会中市场化程度不高,尚与人工智能关联较弱的经济社会领域,在不久的未来,人工智能可能通过对其资产与产业环节的“激活”,实现意料之外的爆发式增长。

图1三类产业:按照与人工智能联系程度来

 

1.核心产业的扩张效应。人工智能作为一项系统性较强的数字技术,其应用的实现离不开技术研发、软硬件开发、算法模型训练、具体场景应用等一系列环节,从而催生了一系列支撑配套的核心产业,有着完备的产业链条,其产品服务涵盖了上游研发到下游应用的各环节。在软件层面,人工智能技术包括算法软件、图谱模型、处理流程等内容的开发,而在硬件层面,人工智能技术涵盖专用芯片、存储器、处理器等硬件设施的生产,除此之外,还包含对数据的搜集与处理,对样本进行学习,对模型进行训练等一系列配套工作。人工智能技术是一项涵盖诸多技术产品的复杂系统,从上游的技术研发到中游的工程实现,再到下游的应用反馈,系统中各个环节都对应着相匹配的产品及服务,随着行业的发展人工智能行业逐渐形成了一套相对独立的核心产业体系。

人工智能促进经济高质量发展的路径之一,即是人工智能核心产业的扩张增长效应。人工智能产业体系根植于高新信息技术产业,但不同于其他信息技术产业,人工智能具有与生产生活应用更高的融合度,可以快速响应具体问题,根据不同的场景生态提供对应的应用方案。不断增长的应用需求使得人工智能产业保持较高速度的增长,同时也促进了基础信息技术产业的壮大,人工智能核心产业的扩张增长符合产业结构优化升级方向,其对经济的支撑作用不断强化,促使经济实现高质量发展。

2.融合产业的赋能效应。人工智能技术发挥渗透性、替代性、协同性、创造性的技术—经济特征,输出智能化设施、智能化方案,对已有产业进行智能化改造,实现数字经济与实体经济的融合发展,通过提质增效促进经济高质量发展。

在农业领域,人工智能融入农业生产、物流、出售等环节中,实现农业生产的无人数控、基于数据分析的生产决策、智能农业机器人的精准执行等转变。中国工程院院士赵春江认为,数字技术将实现农业的产业结构升级、产业组织优化和产业创新方式变革,进一步实现农业从自然资源依赖向知识资源依赖的转变[11]。在工业领域,人工智能基于不同工业行业的产业特征提供生产服务的精准升级,一方面在生产端实现冗余资产的发现切除、错配资产的优化调整、闲置资产的重新激活,促进生产效率的提升;另一方面在消费端实现用户需求的快速响应、精确匹配、个性定制,充分释放消费端潜力。人工智能目前已经实现了客户识别、定向展示、工业数据分析等诸多应用。在服务业领域,人工智能早已应用于金融、旅游、物流、文化体育等各个领域,其中在金融领域进行赋能的研究与实践最丰富,人工智能的分析与决策潜力被认为是打造数字金融体系,实现包容性增长的重要路径之一[12]。如今人工智能技术正越来越多地被应用于供应链、交通物流、工业互联等领域,在工业、农业、金融、公共安全等行业逐步构建多样化行业技术服务及解决方案平台,将智能技术与行业数据、专业知识、业务流程深度融合,形成细分领域垂直行业平台,提供相对通用的行业应用服务。人工智能核心产业与融合产业促进经济高质量发展的动态作用机理见图2。

图2人工智能核心产业与融合产业促进经济高质量发展的动态作用机理

 

核心产业与融合产业之间并非独立增长的割裂状态,相反,人工智能对融合产业的增长赋能离不开人工智能核心产业高质量智能化设施与智能化方案的支撑,而核心产业的持续迭代更新也无法脱离融合产业提供的技术升级需求与场景数据反馈,一些阶跃性的模型优化与算法创新在高质量的场景数据支持下可以在短时间内达到极佳的训练效果并迅速投入推广使用,节省大量训练成本。核心产业与融合产业对经济高质量发展的促进作用是一个具有循环化、动态化特征的交互促进过程,在这个交互过程中,核心产业的底层架构创新能力与迭代速度持续提升,数据更加自主可控、安全高效,而融合产业的赋能边界不断拓展,逐步覆盖国民经济全产业链各环节。两类产业对经济高质量发展的促进路径具有内生自我反馈机制,在循环往复、不断深化的持续性过程中,实现更加全面、深化、自主、包容的经济高质量发展。

3.潜在关联产业的活化效应。除核心产业的扩张效应与融合产业的赋能效应外,作为一项颠覆性技术,人工智能还将对经济体系中的潜在关联产业产生重要驱动作用,即产生“活化效应”,带来创造性地增长。很多原本与数字技术毫无关联的产业,在人工智能行业产品输出、服务输出、技术输出、范式输出、商业模式创新等助力下得到活化,迎来了新一轮高质量发展行情。比如,在十余年前,外卖还只是人们拨打商家电话进行点餐配送行为的别称,而如今,外卖在人工智能技术的加持下,通过算法推荐、匹配骑手、产业链优化等方式,已经成长为一个万亿规模的巨型市场。在日常出行领域,人工智能技术为高效安全出行提供支持,在房地产行业,人工智能技术为交易主体实现智能匹配,降低交易时间成本,提升社会福利。我们正处于一个剧烈变革的时代,在可预见的未来,这种活化效应将越来越多地刺激经济社会的各个潜在关联产业,实现高效集约、创新绿色的高质量增长。

活化效应与融合产业的赋能效应有所区别:一是活化效应面对未来,活化对象更多指目前还未与人工智能技术产生交集的潜在行业;二是赋能效应的对象是融合产业,赋能过程中人工智能与融合产业的交互作用、动态发展,需要融合产业不断提供产品服务信息,而活化效应更多通过人工智能核心产业单向输出实现。

此外,对于部分潜在关联产业,特别是非正规部门(可称为市场外潜在关联产业),人工智能通过将其进行资本化来实现活化效应。索托在《资本的秘密》一书曾讨论这类广泛存在于发展中国家,严重阻碍社会部门运转以及经济产业发展的产业,包括城乡接合部非正式市场系统、非法作坊、非法建筑等。这些正式体系之外的经济部门在一定程度上弥补了正式经济领域的空白,但当其比重过大时便会形成对经济社会发展的强大阻力[13]。邱泽奇等将这类资产获得市场进入机会定义为资产的资本化过程,认为促进有效资本增长的途径有两条:其一,提高资本化程度;其二,增加资产数量[14]。在市场外潜在产业的资本化方面,数字技术展现了前所未有的催化效率,而人工智能技术更是综合大数据、识别匹配、智能决策等流程于一体,在社会各个方面实现冗余资产的发现切除、错配资产的优化调整、闲置资产的重新激活,促进了资产的高速、高效资本化。

人工智能通过对市场内潜在关联产业的活化效应,解决产业内存在的问题:其一,供求双方信息流通受阻,市场信息不对称的非匹配问题;其二,产业规模增长而质效降低的粗放增长非集约问题。对于市场外潜在关联产业,人工智能的资本化效应则解决了两方面的问题:其一,非正式产业尾大不掉的非规整问题;其二,数字设备能力差异化、市场进入机会不平等、地域发展不均衡等非公平问题。人工智能充分发挥对潜在关联产业的活化效应,作用范围逐步覆盖国民经济全产业链各环节,提供经济发展过程中非匹配、非集约、非规整、非公平问题的解决方案,实现经济的高质量发展。

二、我国人工智能发展现状

长久以来,中国在世界科技发展历史中扮演着追赶者的角色,而人工智能是我国在新一轮技术革命中率先取得领先优势地位的少数领域之一。2020年中国人工智能核心产业规模达到3251亿元,年度行业投融资金额突破800亿元[15],人工智能正加速与实体经济融合发展,助力产业转型升级、提质增效。

(一)基于行业发展视角,中国处于人工智能领域的第一梯队地位

目前我国在人工智能领域的论文发文量、专利申请量方面都居于世界前列,并且增长速度正进一步提高。总体而言,中国人工智能处于全球第一梯队位置,成为仅次于美国的第二大贡献国。

根据中国科学技术发展战略研究院、科技部新一代人工智能发展研究中心发布的《中国新一代人工智能发展报告2020》数据显示,2019年中国共发表人工智能论文2.87万篇,比上年增长12.4%,单年论文规模达到美国的1.5倍,相比2013—2018年共产出7.4万篇有了大幅提升。在全球近五年前100篇人工智能论文高被引论文中,中国产出占21篇,相比2018年增加5篇。中国在人工智能领域各顶级国际会议上的活跃度和影响力不断提升,在自动机器学习、神经网络可解释性方法、异构融合类脑计算等领域中都涌现了一批具有国际影响力的创新性成果。中国人工智能专利申请量2019年超过3万件,比上年增长52.4%[16-17]。另据深圳市人工智能协会发布的《2021人工智能发展白皮书》,截至2020年底,中国人工智能相关企业数量达到6425家,同比增长25.37%,企业数量位居全球第二[18]。另外,中国始终以积极的姿态推动人工智能领域的国际合作,在国际人工智能开源社区的贡献度已成为仅次于美国的第二大贡献国。

(二)基于技术研发视角,中国正处于人工智能发展的关键突破期

人工智能对经济社会高质量发展的促进力量根植于自身的通用性技术特征,而作为一项引领新一轮产业变革的数字技术,其对产业的变革动力来源于底层的一系列技术创新。中国信息通信研究院对人工智能技术创新程度和突破难度进行分类,从高到低分为颠覆、阶跃、创新优化和工程实现四个发展层级[17]。目前,我国在创新优化和工程实现技术方面处于全球领先位置,但在颠覆性和阶跃性技术方面相对缺乏,缺乏全球引领能力。

据中国信息通信研究院测算,现阶段我国在视觉、语音等基础智能任务的工程实现水平,处于世界领先位置,算法模型的二次创新优化能力同样居于世界前列,但在基础理论、原创模型等颠覆性、阶跃性技术领域仍不具备领导能力[19]。具体而言,中国有一大批人工智能研发机构致力于吸收改造领域内的人工智能算法技术并对其进行场景应用方面的训练,在完成工程实现的同时,基于丰富的场景、用户数据对技术模型进行较小的创新优化。如中国科学院大学人工智能学院近年来开发了基于大数据的互联网机器翻译核心技术及产业化(2017)、大规模知识图谱构建关键技术与应用(2020)等项目。在企业方面,旷视科技融合算法、算力和数据,打造新一代AI生产力平台旷视Brain++,开源深度学习框架“天元”,其ShuffleNet模型具备轻量级CNN模型结构,在同等计算复杂度下可编码更多信息。极智嘉科技基于丰富运营经验和场景积累,建立了国内机器人数量最多、出货能力最大的机器人拣选仓库产品和解决方案系统,覆盖订单拣选、自动搬运、包裹分解等不同物流应用场景,提供环境地图构建、动态环境适应、混合场景多传感器融合、自适应运动等一系列技术服务。依图科技与上海交通大学、芯片公司ThinkForce合作建立“视觉计算与应用”联合实验室,搭建全球最大的人像系统,覆盖超15亿人像,为全国20余省的安防、海关总署、中国边检等合作伙伴提供人像比对服务,并广泛应用在招商银行、浦发银行等多个互联网金融业务场景中。

尽管中国在视觉、语音、自然语言处理等基础应用任务的算法开发上技术完成度高、处理能力强、迭代速度快,多所企业与高校在全球权威比赛中成绩优异①,但是,在颠覆层级的基础理论开发,以及阶跃层级的模型原创或技术优化方面,中国缺失与产业体量相匹配的领导力。一方面,知识工程、深度学习、神经网络等人工智能基础理论开发需要相关统计学、认知学、神经学等底层学科作为理论基础,而中国长久以来一直在现代基础学科理论创新方面落后于欧美发达国家,缺乏基础性创造性贡献。另一方面,中国还没能掌握人工智能热点发展方向的决定权,技术标准、数据标准体系长期对标国际,国内研发重心长期跟随国际,缺失人工智能领域技术研发话语权,短期难以突破领域内寡头垄断格局。

①商汤、旷视、依图、腾讯等企业在细粒度图像识别、自动驾驶场景定位及追踪、行人重识别(ReID)、人体视频解析等复杂任务各类比赛中成绩优异;哈工大讯飞联合实验室(JointLaboratoryofHITandiFLYTEKResearch,HFL)在推理阅读理解评测任务(HotpotQA)全维基赛道中获得第一。

(三)基于地域空间视角,中国形成了三大城市群为重要引擎,沿海地区快速增长,内陆地区稳定增长的发展格局

自2017年国务院发布《新一代人工智能发展规划》以来,全国各地加快推进具有地方特色、符合地方定位的人工智能战略规划布局,央地共治共同推动人工智能发展成效显著,相关细化政策不断完善落地。当前中国形成了以京津冀、长三角、大湾区三大城市群为重要引擎,沿海地区快速增长,内陆地区稳定增长的人工智能地域发展格局。其中,京津冀城市群形成以北京为绝对核心的单核加速发展态势,长三角城市群构建以上海、杭州为正副核心的双核引领发展态势,大湾区城市群形成以深圳、香港、广州为核心的三极协同发展态势。三大城市群以外,主要有成都、武汉、长沙、合肥等城市支撑起了内陆地区人工智能领域的发展。

截至2020年底,中国人工智能企业数量达到6425家,京津冀、长三角、大湾区三大区域占据了企业总数量的80%以上。广东、北京、上海、浙江在企业专利申请数量方面领先全国,广东、江苏、北京、浙江是人工智能专利转移最活跃的地区,这些地区通过科技成果供给激发了区域经济发展新动能。2019年人工智能论文发表活跃度排名依次为北京、江苏、广东、湖北等地。2020年人工智能领域从业人员超过60万人,而北京、上海、深圳、杭州聚集了80%以上的人工智能人才①。三大城市群的人工智能快速发展离不开一大批人工智能研发机构的底层支撑,笔者根据机构资料与中国信息通信研究院对人工智能技术层级划分标准,对地处三大城市群的人工智能研发机构进行了简要划分。在北京,有清华大学神经网络结构研究中心、北京大学智能科学系、微软亚洲研究院、百度深度学习研究院支撑起颠覆与阶跃层级的技术开发,中科大模式识别实验室、北理工仿生机器人与系统国际合作联合实验室、旷视科技计算机视觉研究院等则聚焦创新优化与工程实现级的技术研发。上海与杭州在颠覆与阶跃层级的基础理论开发有上海交通大学人工智能数学基础、机器认知计算研究中心、复旦大学类脑智能教育部重点实验室、深兰科学院等校企机构,创新优化与工程实现级则有浙江大学计算智能与信号处理研究所、多源感知与机器智能研究所、之江实验室、上海智能机器人工程技术研究中心等研发机构提供支撑。大湾区地区有着广泛的人才吸引力与技术流动性,建有华为云计算异构系统关键技术工程实验室、中山大学大数据与计算智能研究所、无人系统研究所、深圳人工智能与大数据研究院、香港中文大学智能系统实验室;云从科技—中国民航共建智慧民航研究中心(广州)、大疆智能无人系统开放创新平台等一大批校企研发机构。

①数据来源:深圳市人工智能行业协会。其中,企业专利申请数量:广东28.32万件,北京10.28万件,上海6.13万件,浙江3.67万件

三、我国人工智能促进经济高质量发展存在的主要问题

(一)关键核心技术缺乏与产业话语权缺失导致核心产业低质扩张

在当前世界局势中,人工智能被视为经济社会发展重要的新增长点,各国都十分重视人工智能技术的发展,国内人工智能企业与高校科研院所在国际市场中极易被打上“中国”的标签,并遭遇一些来自非市场力量的压迫。中国目前在创新优化级、工程实现级的人工智能技术研发工作取得了巨大成就,但在颠覆性理论突破与阶跃性模型创新方面还有所不足,中国还未能掌握人工智能热点方向的决定权,技术标准、数据标准体系不得不长期对标国际,研发重点跟随国际脚步,缺失人工智能领域技术研发话语权。同时,在关键技术、芯片制造、架构设计、底层平台方面中国还面临着发达国家“卡脖子”的局面。人工智能促进经济高质量发展的路径之一是通过其核心产业的扩张增长,在核心技术话语权缺失的情况下,中国将难以发挥核心产业的扩张效应,甚至长期陷入“大而不强”的被动局面。

(二)产学研合作存在“梗阻”与要素流通不畅导致融合产业低效赋能

人工智能对融合产业的赋能过程涉及特定产业专业与人工智能专业的交叉复合知识,更需要研发端长期布局,熟悉特定产业的运行架构与关键症结。然而,目前中国不同人工智能主体的研发重心存在偏差,高校科研院所相对重视人工智能理论开发与模型训练问题,而人工智能企业更重视场景应用与技术服务,产业端与研发端之间的界限依旧牢固,市场激励基础理论研发与基础研发促进产业升级的双向路径不通畅,技术、人才、制度、数据等要素难以自由流动,核心产业与融合产业之间的产品服务流与信息数据流渠道受阻,原本的动态融合逻辑被打破,人工智能对融合产业赋能成本高、效率低、效果差,无法充分发挥对经济高质量发展的交互促进效应。

(三)平台垄断问题与溢出效应不足导致潜在关联产业低迷活化

在人工智能时代,学习算法不断优化,模型算力持续进步,数据的经济价值将得到前所未有的深度挖掘和充分释放,为海量用户数据提供了完美的商业可能。同时,人工智能技术依赖数据进行正反馈循环发展,行业自然倾向于垄断,当人工智能头部平台公司形成一定的市场势力,市场机制将很难阻止其利用“技术+市场势力”的循环进一步深化垄断格局。人工智能产业主体通过数据垄断而限制、排除竞争的行为,将成为反垄断法面临的新时代课题[20]。当前,我国数字经济平台垄断问题已经有所凸显,以滴滴为代表的一批数字平台被国家互联网信息办公室核实存在严重违法违规收集使用个人信息问题,要求下架整改[21-22]。人工智能行业存在的垄断问题对行业发挥溢出效应有着严重的阻碍,行业活力被抑制,导致人工智能对于潜在关联产业的活化效应严重释放不足。

(四)相关社会伦理道德规范缺失,隐私保护和安全性问题突出

与发达国家相比,我国还缺乏与人工智能相关的社会伦理和法律规范系统研究和整体规划,对于人工智能使用和赋能造成的潜在风险、隐私保护,缺乏事前预见性和事后应急处置方案,特别是在社会治理领域的应用,容易诱发隐私侵犯、侵入式检测事件,甚至诱发危及社会稳定和政权安全的严重群体性社会问题。人工智能法律法规有待完善,行业发展尚需伦理准则规范,法律地位不明确、算法不透明、危险决策不可解释等一系列风险亟须解决。

此外,我国还存在开源软件使用不当导致的知识产权侵权风险、强制开源导致企业核心技术泄露风险(如使用GPL等许可协议,要求引用/修改/衍生代码的开源/免费使用,不允许修改/衍生的代码作为闭源商业软件发布和销售)、不遵守许可协议造成合同违约风险,以及多个开源许可证不兼容风险等一系列问题。在开源软件使用不当方面,我国人工智能领域在国际上声誉受损和被经济制裁的案例时有发生。

(五)相关人才短缺且结构不合理,难以支撑实体经济高质量发展

1.高端人才总量偏少。知名AI领域机构ElementAI发布的2020年《全球AI人才流动报告》称,尽管中国在人工智能处于世界前列,论文数量排名也居于全球第二位置,但中国人工智能人才储备表现不佳,在全球AI人才库中,美国拥有188300人,再次位列第一,印度拥有86213人,居次席,中国拥有AI人才数量仅为22191人,排在第四位;并且,据测算,2014—2019年,中国人工智能高端人才呈现越来越严重的净流出状态[23]。

2.人才结构不合理。我国人工智能人才主要集中在应用领域,而美国则主要集中在芯片、机器学习、计算机视觉等重要基础技术领域。我国目前缺乏具备人工智能和实体经济交叉知识体系的复合型人才,但高校专业设置落后于科技发展实际,人工智能专业教学存在缺乏实践、领域宽泛、知识陈旧、碎片化严重等问题。产业界则存在人才使用和激励机制不完善的问题,对如何评价科技人员贡献缺乏有效办法,人工智能技术人员在选拔、任用、培养、使用上缺乏有效激励办法。

四、对策建议

(一)推进基础理论研究和关键共性技术开发,提高科技自立自强能力

针对核心产业低质扩张问题,充分发挥新型举国体制优势,集合产学研多方优势,加大在机器学习、智能计算、核心算法、基础软硬件等人工智能前沿理论和关键核心技术研发应用的投入力度,坚持创新在经济高质量发展中的核心地位,增强科技自主创新能力,尽快在基础理论研究和关键共性技术获得突破,解决一批“卡脖子”技术问题,提高人工智能领域科技自立自强能力。

针对融合产业低效赋能问题,大力推进以企业为主体、“政产学研用”相结合的开放式协同创新,提高创新生态系统开放性、协同性。加强人工智能相关的企业国家重点实验室建设,支持企业与高校、科研院所等共建研发机构和联合实验室,打破产学研壁垒,进一步疏通二者之间技术、人才、制度、数据的流动路径,加强面向人工智能和行业共性问题的应用基础研究,联合开展关键共性技术攻关。鼓励不同产业领域对人工智能技术的创新应用,加快人工智能应用覆盖速度,拓展人工智能应用赋能边界。鼓励实体经济与人工智能的深度融合,推进融合产业动态高质量发展。

(二)优化行业发展环境,促进产业生态良性发展

人工智能与实体经济深度融合需要优化发展环境,包括完善的市场建设、公平的竞争环境、良好的商业秩序、政府规范合理的行为及其激励与保障下企业对于技术创新与产业创新的追求(而非对于寻租及政策套利活动的追求)。

在反垄断方面,贯彻落实《中华人民共和国反垄断法》和《国务院反垄断委员会关于平台经济领域的反垄断指南》,强化对数字经济平台企业反垄断执法,坚决制止平台企业利用算法歧视、算法操纵、数据垄断、侵犯隐私等手段,侵害消费者利益,实施排除、限制竞争的行为。

在政策环境方面,推进普惠性产业政策转型,由当前“政府选择+政策支持”的产业政策,与“产业规划—项目选择—政策支持—效果评估”的政策实施方式,转变为“环境建设+市场选择”的产业政策,与“产业规划—环境建设—体制机制保障—企业行为—市场选择”的政策实施方式[24]。

在市场环境方面,完善全国统一、竞争有序的市场体系建设,加大知识产权保护力度,防范打击人工智能领域知识产权侵权行为。建立完善人工智能知识产权交易制度,促进人工智能技术在产业间的扩散。完善资本市场支撑环境,优化人工智能与实体经济融合的金融市场支持。完善区域间技术、人才、资本流动环境,积极引导中西部地区重视人工智能产业发展,解决地域发展不均衡问题。

(三)完善相关法律法规和伦理规范制度,促进人工智能“科技向善”

新一代人工智能技术是一种数据驱动型技术,存在着技术上鼓励数据的全社会流动共享与安全上要求个人加强隐私信息保护之间的深层矛盾。数据的高质量、大规模、可得性关乎人工智能发展的成败,因此在数据安全性方面,需要政府重视相关法律法规体系建设,行业协会加快制定行业标准规范,企业内部建设并严格执行数据泄露惩罚机制。

贯彻落实《中华人民共和国网络安全法》《中华人民共和国数据安全法》,呼吁尽快出台《中华人民共和国个人信息保护法》。借鉴欧盟《通用数据保护条例》等在数据安全和隐私保护的先进经验,结合实际情况出台相关实施细则和配套政策,在确保数据安全和个人隐私、企业秘密前提下,鼓励数据互联互通。组织社会学家、法律专家、技术专家针对相关问题展开合作,全社会广泛参与讨论,制定完善相关法律法规和伦理规范,规范人工智能信息收集、保存、使用、共享、转让、信息披露等活动,实现信息安全、隐私权与数据可得性之间的平衡,确保人工智能“科技向善”。

(四)构建高素质人才培养体系和人才流动机制,促进包容性均衡发展

人工智能核心产业扩张增长过程的专业性与融合产业赋能增长过程的复合性对相关人才的数量、质量提出了高要求。中国需要在鼓励高校设立人工智能专业的同时,鼓励设立“人工智能+”复合专业,培养融合专业人才。基于多学科构建人工智能人才协同培育体系,加强优势专业校际交流,深化教育科研改革,加大交叉人才培养力度,增加人工智能人才储备。

我国人工智能发展水平高的机构和企业主要集中在东部地区,中西部人工智能研发和应用水平相对较低,区域发展不平衡问题较为突出。中西部地区应以大力发展数字基础设施为契机,完善地区营商环境和知识产权保护制度,构建灵活顺畅的人才流动机制,通过建立人工智能专项发展基金池等办法,吸引东部人才到中西部地区创业发展,提升中西部地区人工智能发展水平。

拓宽国际人才交流和招揽渠道,扶持人工智能、机器学习,以及数字经济所需的数据分析、云端计算等领域的人才引进及培养。鼓励高校、企业相关团队赴国外顶尖大学及研究机构合作交流人工智能及机器学习等最新技术。完善外籍高层次人认定标准,畅通人才申请永久居留的市场化渠道,为外籍高层次数字科技人才在华工作、生活提供更多便利。完善国际化人才培养模式,加强数字科技人才国际交流合作,推进职业资格国际互认。

(五)加快人工智能创新应用先导区和创新发展试验区建设,推进改革试点和应用示范

目前,工信部已经在上海(浦东新区)、深圳、济南—青岛、北京、天津(滨海新区)、杭州、广州、成都设立了8个国家人工智能创新应用先导区,这是部省协同推进人工智能和实体经济深度融合的重要举措。科技部则分别发函支持北京、上海、合肥、杭州、深圳、天津、济南、西安、成都、重庆、广州、武汉、苏州、长沙等城市和浙江省德清县,建设国家新一代人工智能创新发展试验区,国家新一代人工智能创新发展试验区已达14市1县。

要以创建国家人工智能创新应用先导区和国家新一代人工智能创新发展试验区为契机和载体,发挥先导区和试验区在技术原创、产业生态、人才基础、发展环境等多重优势,不断拓展应用场景,促进人工智能与制造业深度融合,促进人工智能与核心产业、融合产业、潜在关联产业更多融合发展。与此同时,探索新一代人工智能发展新路径新机制,形成可复制、可推广的经验,不断挖掘机制改革“深度”,提升创新能力“高度”,加快应用落地“速度”,增进产业集聚“热度”,导出经验、模式、产品及服务,为经济高质量发展提供有力支撑。

 

参考文献

[1]姜国睿,陈晖,王姝歆.人工智能的发展历程与研究初探[J].计算机时代,2020(9):7-10,16.

[2]习近平主持中共中央政治局第九次集体学习并讲话[EB/OL].(2018-10-31)[2021-07-07].http://www.gov.cn/xinwen/2018-10/31/content_5336251.htm?cid=303.

[3]蔡跃洲,张钧南.信息通信技术对中国经济增长的替代效应与渗透效应[J].经济研究,2015(12):100-114.

[4]蔡跃洲,陈楠.新技术革命下人工智能与高质量增长、高质量就业[J].数量经济技术经济研究,2019(5):3-22.

[5]HolfordWD.Thefutureofhumancreativeknowledgeworkwithinthedigitaleconomy[J].Futures,2019(105):143-154.

[6]曹静,周亚林.人工智能对经济的影响研究进展[J].经济学动态,2018(1):103-115.

[7]郭晗.人工智能培育中国经济发展新动能的理论逻辑与实践路径[J].西北大学学报(哲学社会科学版),2019(5):21-27.

[8]师博.人工智能助推经济高质量发展的机理诠释[J].改革,2020(1):30-38.

[9]任保平,宋文月.新一代人工智能和实体经济深度融合促进高质量发展的效应与路径[J].西北大学学报(哲学社会科学版),2019(5):6-13.

[10]罗以洪.大数据人工智能区块链等ICT促进数字经济高质量发展机理探析[J].贵州社会科学,2019(12):122-132.

[11]赵春江:加快数字技术应用于农业农村[N].农民日报,2020-12-19(03).

[12]张勋,万广华,张佳佳,等.数字经济、普惠金融与包容性增长[J].经济研究,2019(8):71-86.

[13]赫尔南多·德·索托.资本的秘密[M].于海生,译.北京:华夏出版社,2012.

[14]邱泽奇,张樹沁,刘世定,等.从数字鸿沟到红利差异——互联网资本的视角[J].中国社会科学,2016(10):93-115,203-204.

[15][18]深圳市人工智能行业协会发布《2021人工智能发展白皮书》[EB/OL].(2021-05-28)[2021-06-20].https://www.sohu.com/a/469049593_121123919.

[16]《中国新一代人工智能发展报告2019》发布——我国人工智能论文发文量全球领先[EB/OL](.05-26)[2021-06-08].https://baijiahao.baidu.com/s?id=1634542618791206141&wfr=spider&for=pc.2019-

[17]《中国新一代人工智能发展报告2020》发布[EB/OL].(2020-10-22)[2021-06-14].https://baijiahao.baidu.com/s?id=1681229567542644309&wfr=spider&for=pc.

[19]《人工智能核心技术产业白皮书》发布[EB/OL].(2021-04-21)[2021-06-20].https://www.sohu.com/a/462167290_120056153.

[20]吴汉东.人工智能的数据垄断与反垄断法的时代使命[N].光明日报,2018-07-03(11).

[21]关于下架“滴滴出行”App的通报[EB/OL].(2021-07-04)[2021-07-11].http://www.cac.gov.cn/2021-07/04/c_1627016782176163.htm.

[22]关于下架“滴滴企业版”等25款App的通报[EB/OL].(2021-07-09)[2021-07-11].http://www.cac.gov.cn/2021-07/09/c_1627415870012872.htm.

[23]2020全球AI人才报告:全球AI人才突破47万,中国仅有2万[EB/OL].(2021-03-25)[2021-07-09].https://www.sohu.com/a/457292666_120129517.

[24]高煜.我国经济高质量发展中人工智能与制造业深度融合的智能化模式选择[J].西北大学学报(哲学社会科学版),2019(5):28-35.

 

方澳,中国社会科学院大学硕士研究生,研究方向为数字经济、政府政策。

郭朝先,方澳.人工智能促进经济高质量发展:机理、问题与对策[J/OL].广西社会科学:1-10[2021-07-26].http://kns.cnki.net/kcms/detail/45.1185.C.20210723.1327.002.html.

人工智能伦理问题的现状分析与对策

中国网/中国发展门户网讯  人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。

当前人工智能伦理问题

伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。

计算机伦理学创始人 Moore将伦理智能体分为4类:伦理影响智能体(对社会和环境产生伦理影响);隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。

当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。例如:人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于 Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。人工智能的滥用可能威胁公民隐私权、个人信息权。深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用 Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……

人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。

关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。 

人工智能伦理准则、治理原则及进路

当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。

伦理准则

近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。

近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。

治理原则

美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。

习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。

治理进路

在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。

“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。

“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》11中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。

我国人工智能伦理治理对策

人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。

教育改革

教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。为更好地支撑人工智能发展和治理,应从4个方面进行完善:普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;在科技工作者中加强人工智能伦理教育和职业伦理培训;为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。

伦理规范

我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。当前有5项重点工作可以开展:针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。推动科研机构和企业对人工智能伦理风险的认知和实践。充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。

技术支撑

通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。

此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。

法律规制

法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。

国际合作

当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。

我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。

(作者:张兆翔、谭铁牛,中国科学院自动化研究所;张吉豫中国人民大学法学院;《中国科学院院刊》供稿)

传统人工智能中的三大问题

基于神经网络和大样本统计规律的深度学习越来越走入瓶颈,人工智能的发展越来越向基于符号推理和因果推理的传统人工智能回归。AI算法工程师不能把眼光仅仅局限在海量样本的统计规律上,而应该学习并掌握基于符号推理和小样本学习的传统人工智能技术。否则,当深度学习的热点一过,你很可能无法适应企业和市场对AI的新的需求。

本文介绍了传统人工智能要解决的三大问题:问题求解、博弈和谓词逻辑。它们都是基于符号推理和白盒推理的。了解相应的解决方案和算法有助于算法工程师开拓眼界,加深对算法本质的理解,增加解决问题、适应未来需求的能力。

1.传统人工智能的三大问题

人工智能包括传统人工智能和现代人工智能两部分。机器学习、深度学习、遗传算法和强化学习是现代人工智能的主要分支。他们主要解决分类、回归、聚类、关联和生成等问题。而传统人工智能主要解决问题求解、博弈和谓词逻辑三大问题。

传统人工智能之所以重要是因为:

传统人工智能的算法比较成熟、可靠、有效。很多能够用传统人工智能解决的问题就不应该使用复杂且成本高昂的现代人工智能方法。比如求上海到北京之间的最短路径问题,用A*算法就要比深度神经元网络高效得多;传统人工智能更基础。很多应用场景中,现代人工智能方法必须在传统人工智能基础上发挥作用。比如战胜围棋世界冠军李世石的AlphaGo其基础部分仍然是博弈算法,而残差神经元网络(深度学习技术之一)只不过在评价棋局优劣时发挥了作用。作为一个算法工程师,如果你只懂深度学习不懂博弈算法,是很难编写出高效的围棋程序的;深度学习是基于黑盒推理的,往往知其然而不知其所以然。也就是说,它能解决问题,但是我们不知道它为什么能解决问题。而传统人工智能的各种算法一般都是基于白盒推理的,知其然更知其所以然;更重要的是,我们不能以“有没有用”为标准来评价传统人工智能。就像数学中某些当时看来“没有用”的理论和方法一样,当它“有用”时你再去研究它就迟了。2.问题求解2.1状态和状态转化

这里的问题是指可以用状态来描述的,且起始状态和终止状态明确的问题。比如,八数码问题的一个可能的起始状态如下图所示:

 在一个3*3的网格中随机放置了1-8八个数码。其中有一个网格是空着的。这个空网格可以跟上下左右四个方向的任何一个临近的数码交换。但不能跟斜方向上的数码交换。比如上图中空网格可以和右边的那个数码3相交换,得到的子状态就是: 

八数码问题就是研究如何用最少的次数移动空网格,从而使得八个数码最终呈现出如下所示的终止状态:

 

2.2搜索树

问题求解的一个最简单的方法就是构造搜索树。方法是:

把初始状态看成是根结点,构成仅含有一个结点的搜索树T;任选T中的一个候选结点a,把它的所有可能的子结点都挂在a之下。这个过程称为对a的扩展。所谓候选结点就是没有被扩展过的结点;不断重复2)直到找到终止状态,或者没有候选结点为止。

下图就是一个搜索树的例子(其中排除了重复的结点)。尽管上述算法并不能保证给出最少移动次数,甚至我们都不能保证它一定能终止(如果我们不排除重复结点的话),但是它仍然给出了问题求解算法的最基本框架。问题求解的各种算法(比如宽度优先、深度优先、爬山法、分支定界法和A*算法等)就是在这个框架基础上按照不同思路进行优化的结果。

比如宽度优先搜索,就是在算法的第2)步选择距离根结点最近的候选结点优先扩展。这个方法找到的第一个解一定也是最优解。所谓解就是从根结点到终止结点的一个路径。

所谓分支定界法就是在找到一个解之后,就把这个解的路径长度与以前找到的解的路径长度相比较,只保留路径短的那个。以后我们在扩展任何一个结点时,都要看看当前路径的长度是否短于解的路径长度。如果回答是“否“,则当前这个结点就没有必要扩展下去了。

至于其他更高明的算法,比如A*,这里就不再赘述。感兴趣的同学请关注方老师博客http://fanglin.blog.csdn.net。

与八数码问题类似的著名问题还有:

华容道问题:见上图,一个4*5的棋盘上有曹操、卒、马云、......大小不同的棋子。4个卒的大小都是1*1,黄忠、赵云、张飞和马超的大小是1*2,关羽的大小是2*1,曹操最大,大小是2*2。棋盘上还有两个1*1的空格以便棋子移动。游戏的目的是把曹操移到下方关口位置处,从而逃出华容道;八皇后问题:在8*8的国际象棋棋盘上(见下图)如何放置八个皇后使得任意两个皇后都不在同一行、同一列或者同一斜线上;求两个城市之间的最短路径问题;背包问题:给定有限个物品以及每个物品的重量以及价值,比如罐头200克6元,手机125克5000元,等等。另外再给你一个最大负重为2000克的背包。问在不超过最大负重的情况下应该在背包中放置哪些物品从而获得最大的价值?路径规划问题,怎样规划一个或者多个快递小哥的路径使得他们跑最少的路把一堆快递送到客户手中。这个问题还可以扩展到物流规划、船舶航运规划上。

 八皇后问题

 解决这些问题的关键在于如何描述问题的状态以及父状态如何生成子状态。比如最短路径问题中,状态就可以用当前所在的城市表示。城市与城市之间有道路直接连通的就可以构成父子状态的转换。由于道路一般是双向的,则父子状态的转换也是双向的。

而背包问题的状态可以用背包里当前所拥有的所有物品的集合表示。所谓子状态就是往父状态背包里添加任意一个不超重的物品构成的。

3.博弈3.1博弈树

我们通常所说的博弈其实是博弈的最简单形式,即信息全透明的封闭环境下的两人零和博弈。围棋、象棋、国际象棋等都是这样的博弈。而扑克、麻将、多人跳棋等就不是。以下除非特指,所谓博弈都是指这种两人零和博弈。

博弈要解决的问题是:当人类棋手下一步棋之后,电脑该如何应对呢?跟搜索树一样,博弈所采用算法也是从当前的根结点出发构建博弈树。以井字棋为例,井字棋是一种两人轮流在一个3*3的棋盘上下棋的游戏。目的是看谁先把自己的棋连成了一行、一列或者一条斜线。与中国的五子棋类似。以下是井字棋博弈树的部分结构:

井字棋的博弈树  

与搜索树不同的是:

博弈树在扩展过程中,是双方轮流下棋的。而搜索树无需这样的考虑;搜索树通常要考虑从根结点到当前结点的耗费,而A*算法甚至还要考虑从当前结点到可能的终止结点的预期耗费。耗费越小越好。而博弈树通常只考虑当前状态对双方的价值。价值越大越好,价值也称为得分。得分可以小于0(这表示对对方有利);由于我们考虑的仅仅是两人零和博弈,所以当一个状态对一方的价值(或者说得分)是v的话,则同一个状态对另一方的价值就是-v;如果某个状态下,当前走棋的一方已经获胜的话(比如井字棋中己方有三个棋子已经连成一条线),则他的得分就是正无穷大或接近无穷大,而另一方的得分就是负无穷大或接近负无穷大;由于结点的数目会呈几何指数增加,所以博弈树和搜索树一样,都要解决组合爆炸问题。3.2简单博弈算法

简单博弈算法主要思想是:

博弈树上所有结点的得分都相对于当前下棋的一方计算。正得分表示对他有利,负得分表示对对方有利;采用深度优先方法扩展候选结点。也就是说,优先扩展离根结点远的结点;为了避免组合爆炸,当博弈树的高度达到一定高度h时,就停止扩展。此时当前结点的得分采用估算法或者深度学习方法获得。这个问题下面还要谈;当一个结点的所有子结点的得分都确定之后,就可以确定该结点的得分。结点的得分总是等于所有子结点得分中最大得分的相反数。比如,假设所有子结点的得分分别是-3,12,7,-10,则当前结点的得分就是-12。这是因为,博弈算法假设对方是理性的,总是会走对他自己最有利的一步棋。而这一步的得分如果是v的话,对当前下棋的一方就是-v。因为是两人零和博弈嘛!有意思的是,这个方法也可以用来计算当前结点的父结点的得分。包括当前结点在内的所有兄弟节点中最大得分的相反数就是父结点的得分。所谓兄弟结点就是父结点相同的结点。这个过程可以不断地向上传播直到根结点;根结点的所有子结点中得分最大的那个就是计算机的解。

假设下图是一个限高4层的博弈树,其中所有叶子结点的得分都已经估算出来了:

 

    博弈树(叶子结点的得分已被估算出来)

我们的问题是:A、B、C三个结点中,电脑会选择哪个下棋呢?我们只需沿着叶子结点向上,一层一层计算各个结点的得分即可。记住:每个非叶子结点的得分等于其所有子结点中最大得分的相反数。下面是计算结果:

从叶子结点出发向上一层层计算得分 

根据上述结果我们显然知道,电脑应该选择结点A作为自己的应对。

3.3估算得分

可能有人会问,我怎么估算结点的得分呢?这要看你们下的是什么棋。如果是井字棋,一般来说正中间的那个位置特别重要,谁占据了那个位置应该给谁高分。给多少分您就自己看着办吧。如果是象棋,可以计算一下双方的剩余棋力,比如“车”给100分,“兵”给1分。然后以双方的棋力差作为得分。这个方法没有考虑棋子的位置。其他棋类游戏都可以以此类推。

值得一提的是,深度学习方法可以在估算得分时发挥重要作用。AlphaGo等就是采用这个方法解决了围棋的组合爆炸问题。由于这个问题比较复杂,并且超出了本文的讨论范围,这里不再赘述。有兴趣的读者可以参考我以后的文章。

3.4Alpha-Beta剪裁

绝大多数博弈游戏都面临组合爆炸问题。即随着结点的指数级扩展,博弈树的规模很快就达到天文数字。围棋的博弈程序就是基于这个原因才长期得不到解决直到引入深度学习方法。

Alpha-Beta剪裁算法可以部分地解决这个问题。它的核心思想就是:如果当前结点的某个兄弟结点的得分是v,则当前结点的所有子结点的得分都必须小于-v。只要其中有一个子结点的得分大于或者等于-v,则当前结点及其以它为根结点的整个子树都可以从博弈树上删除。如下图:

 Alpha-Beta剪裁示例 

假设D的得分是4,E是D的兄弟结点。则E的子结点F和G的得分都必须小于-4。否则就应该把以E为根结点的子树从博弈树上删除。为什么呢?假设F的得分是-3,这意味着E和所有兄弟结点的最大得分至少是-3即:

max_value>=-3

前面我们讲过,E的得分应该等于-max_value。根据上面公式,我们得出E的得分必然小于等于3,从而小于D的得分4。这意味着我们根本就没有必要去扩展E的任何其他子结点了(比如G),因为即使扩展了G,E的得分也不会大于4。这就是Alpha-Beta剪裁的原理!

所以,使用Alpha-Beta剪裁算法时,博弈树的扩展常采用深度优先策略。这不仅更节省空间(因为没有必要保存整棵博弈树,只需把当前路径上的结点保存在一个堆栈中即可),更重要的是,深度优先策略有助于算法快速找到一个叶子结点,从而能把该结点的得分用来对相关结点进行剪裁。

关于Alpha-Beta剪裁的更多细节请关注方老师的博客。我在实践中使用这个方法实现了包括井字棋、五子棋、黑白棋等游戏的开发,证明了它的有效性。

4.谓词逻辑4.1命题、谓词和规则

谓词逻辑主要研究如何进行逻辑推理。逻辑推理的基础是事实和规则。“张三和李四是朋友”,“太阳总是从东方升起”等就是事实。事实在谓词逻辑中是以命题的形式给出的。比如上述两个事实对应的命题分别是:

Is_Friend(“张三”,“李四”)

Rise_From(“Sun”,”Oriental”)

这里Is_Friends和Rise_From就是谓词,双引号扩起来的是字符串型逻辑常量。

规则形如:

If 条件 then 结论

其中条件和结论都是命题。比如:

IfIs_Friend(X,Y)thenIs_Friend(Y,X)

这个规则的含义是:如果X是Y的朋友,那么Y也是X的朋友。言下之意:朋友是相互的,不存在X是Y的朋友而Y却不是X朋友的情况。其中X和Y都是逻辑变量。

4.2逻辑运算和复合命题

两个谓词之间可以用“and”或者“or”连接,分别表示“与”运算和“或”运算。比如,Is_Father(X,Y)andIs_Father(Y,Z)表示X是Y的父亲,Y是Z的父亲。这样由多个命题经过逻辑运算构成的命题称为复合命题。。

第三个逻辑运算是“not”,表示逻辑“非”操作。它是一个一元运算符。含义自明。

这样我们就可以用复合命题构成复杂的规则。比如:

IfIs_Father(X,Y)andIs_Father(Y,Z)thenIs_Grandpa(X,Z)

这个规则的意思是说:如果X是Y的父亲,Y是Z的父亲,则X是Z的爷爷。

4.3自动逻辑推理

当我们把已知的命题和规则罗列在一起时,就能进行逻辑推理。逻辑推理的方法主要有两种,第一种是著名的三段式。比如,所有的猫都是哺乳动物,凯蒂是一只猫,所以凯蒂是哺乳动物。

第二种是利用规则进行反向推导。比如,假设我们想知道Tom的爷爷是谁。这实际上是求解命题Is_Grandpa(X, “Tom”)中X的值。怎么做呢?首先我们可以寻找所有结论是谓词Is_Grandpa的规则,这样的规则目前只有一条那就是:

IfIs_Father(X,Y)andIs_Father(Y,Z)thenIs_Grandpa(X,Z)

然后把Z=“Tom”代入其条件部分,则原命题Is_Grandpa(X, “Tom”)被替换为求解两个命题:

Is_Father(X,Y)andIs_Father(Y,“Tom”)

而求解这两个命题的方法是递归地调用上述步骤,直到所有命题都可以用三段式解决为止。

我们可以开发一个系统自动完成上述推理过程,这就是自动推理系统。事实上逻辑程序设计语言Prolog就是干这事的。如果你想自己开发一个这样的自动逻辑推理系统,你一定要注意:满足当前命题的规则可能不止一个,你应该在找到第一个答案前把所有可能的路径都走一遍而不是一旦一条路径走不通就下结论说原命题不成立。

递归显然不能满足这个要求,所以自动推理系统通常采用的是回溯法。如果你对如何构建自动推理系统感兴趣,请关注我以后的文章。

4.4高阶谓词逻辑

我们前面所说的谓词逻辑实际是一阶谓词逻辑,也就是说,谓词的参数要么是变量,要么是常量。如果谓词的参数也是谓词,则这样的谓词就是二阶谓词。这已经超出了本文的讨论范围,本文不再赘述。

4.5谓词逻辑的应用

谓词逻辑特别适合构建基于规则的专家系统、决策支持系统和规则系统。这与深度学习基于大量样本的黑盒推理完全不同。深度学习是从特殊(的样本)出发归纳出一般性的结论,谓词逻辑则是从一般性的规则出发推导出特殊情况下的结论,这是两个截然相反的过程。人脑就是这两个过程的完美结合体。

5.结束语

本文简单介绍了传统人工智能的问题求解、博弈和谓词逻辑,目的是帮助非计算机专业的算法工程师开拓眼界增加认知的。要想了解更多的详情还需要你系统学习《人工智能》课程,或者关注我的博客。

人工智能在教育领域中的应用面临哪些问题和挑战

再比如说,可以了解你的学习能力的情况,可以对你的学习负担提供各种监测,当然这个是要遵循伦理,研究伦理的前提下,可以通过对你的数据和你的表情的分析知道你处在疲劳状态,处在轻生状态,这个在研究里面已经在做了,当然这个前提要尊重个人隐私、伦理的前提下,监测学生的上课状态。如果你过分疲劳,对学习效率很低的。

再比如说可以通过人工智能和虚拟现实结合,提供增强性的虚拟探究环境,供学习者进行探究,进行发现,比如再通过一个虚拟环境,可以回到两千年前去发掘那个时代的历史以及历史演化的过程,智能加虚拟现实结合。等等,人工智能可以在学习环境、学习过程上提供非常多的很好的支持。

第三,人工智能可以对学习过程的评价起到非常重要的作用。他可以分析出你在学习过程中对哪些知识掌握的情况,每个知识点上学科能力的情况,你的核心素养的情况,以及你的体质健康发展情况、心理健康发展情况,可以使得我们的教育评价从单一的学科知识的评价到全面的综合性的评价,可以使得我们的评价从以前只是期末一次考试变成过程性的评价,可以嵌入到你的学习过程中,对学习者进行一些评价,而且评价不仅仅是评价你的知识,还可以评价你的问题解决能力方面。

另外,这种评价可以使得老师的工作大幅度减轻。以前我们只是由人工来做各种各样的评分、观察,需要很大的工作量,现在人工智能可以由计算机进行自动测评,比如英语口语测试,现在已经产业化了,都已经实用化了,很多中考、高考的英语考试都是用实际的系统。

另外,英语作文的批改,现在基本上实用化了,在实验室里面,我们的问答题、论述题、作文题,这些主观题的批改,也已经取得了实质性的进步。今后这方面会取得实质性的突破。取得实质性突破以后,我们老师改作业,统计分数,这些工作就会大幅度降低。人工智能会在教育评价上发挥非常重要的作用。

另外,人工智能对教师的工作可以起到非常重要的作用,起到教师助理的作用。比如,智能出题、智能批改、智能阅卷、智能化的辅导,各种评价报告的自动生成,以及针对学生因人而异的给学生提供各种反馈,像现在我们老师面对一个班,可能面对40个-50个学生,他很难,以前很难做到每个学生都给个性化的反馈,因为他的时间精力不允许,他也不可能了解每个孩子的具体情况,但是现在基于人工智能的技术,我们完全可以了解到孩子在学习过程中存在的各种问题,在人工智能的帮助下,可以根据不同的问题,每个学生提供个性化的反馈,实现对学生个性化的支持,做到既具有规模化,又做到个性化,这是我们中国教育现代化2035所追求的目标。

中国教育现代化2035提出,我们要推进兼容个性化和规模化并重的教育。这个时候人工智能可以大幅度提高老师对学生个性化支持的一种能力,降低教师工作过程中的负担。

第五,人工智能还可以在我们的教育决策、教育管理,以及教育公共服务方面,起到非常重要的作用。比如,人工智能可以使得我们的教育公共服务,从面向群体到面向个体,比如政府,要提供教育公共服务,以前只能面对群体来提供,现在有了人工智能以后可以了解学生个性化的需求,通过网络提供个性化的教育公共服务,相比北京市,北京市有一个中学教师开放性辅导计划,这个计划就是我们在支持,在运行。

它的核心工作就是动员了10788个骨干教师常态性的在网上给学生提供一对一的答疑服务,以及直播课的服务,以及问题解答的服务,以及微课共享的服务。在这个过程中,每个学生在学校里面都有个性化的需要,这种个性化的需要以前是政府不解决的,而现在有了大数据,有了人工智能,有了互联网以后,可以使得政府可以购买教师的在线服务,给学生提供个性化内容的服务,使得我们教育公共服务更个性化。

第二,我们有了学习过程中的各种数据,以及我们办学过程之中的数据,可以使得我们的决策不再只是基于我们个体经验,而是有个体的经验加上科学的数据结合,人机结合的决策,可以使得我们的管理,我们现代教育的治理更加科学、更加精准,也更加符合我们现在民众利益主体,参与度越来越高的诉求,可以大幅度提升政府的现代教育治理的功能。

第三,还可以促进教育对各种环境的集成管控,可以实现把一些隐患的问题,在事情还没有发生之前就可以事先进行预测、进行管控。比如,刚才举的例子,校园外的一些不法分子,完全可以通过数据甄别出来,可以在一些事情上没有被发生之前就可以预测。再比如说校园的各种公共设施,如果出现了小的漏洞,小的漏洞完全可以及时通过人工智能技术集成联通以后,集成远程控制,及时发现。不是等小事情酿成大事情再进行补救,从事后补救变成事前监管,事前预警。实际上人工智能在这五个方面都可以发挥很多很多的作用。

主持人刚刚余教授听您在人工智能教育领域方面的应用非常广泛。但是可能很多人跟我有一样担心,人工智能现在在教学领域能发挥这么大的作用,未来会不会真的把老师取代了?和教师之间会存在一种什么样的关系?是合作还是相辅相承?

余胜泉

教师永远不会被取代。因为我们教师是促进人的成长,有两个职能,一个是教书的职能,一个是育人的职能。今后如果只是知识性的讲授,知识性的传授的工作,会越来越多的被人工智能所提高效率,但是完全取代是不可能的。因为人需要人和人之间的沟通,面对面的沟通,这种情感的沟通,和我们面对屏幕的沟通还是有差异的。

人永远不会取代。但是我们很多的讲课的效率,会大幅度提升。另外,教师除了教书以外还有育人,还有解决学生成长过程中的各种问题,这种问题的解决,需要人工智能来增强。教师在教育教学中非常重要的。我觉得教师和人工智能的关系,是一个相互赋能、相互增强的关系。

相互赋能是什么意思?教师的智慧会越来越多的转化为规则性的东西,使得人工智能具有教师的能力,把老师的个体智慧或者集体智慧转化为人工智能的能力,把人工变成了智能。

另外,人工智能也会赋能教师,教师利用人工智能可以提高,可以使得我们教师提高工作效率,而且能够做到以前做不到的事情,是一个相互赋能、相互增强的关系。人工智能首先是教学效率提高,比如说以前讲测考练,原来需要10个小时完成的事情,可能一两个小时就完成了,针对学生个性化辅导,作业批改。

现在老师一个人带三个班,每天都要改一百多份作业,这一百多份要认真改的话,要两三个小时,工作量非常大。如果今后人工智能发展了,完全可以让人工智能实现批改,实现批改以后可以给出你各种分析报告,每个孩子出现问题是什么地方,给他什么样的改进措施,都给你自动生成。你拿这个报告,可能比老师自己改效率还高,比你自己改还更好地了解孩子。通过这种方式给提高老师的工作效率,把原来需要花很多时间和精力的事情取代掉了。老师有更多的时间,更多的精力关注孩子的成长。心理、身心健康。

另外一方面,人工智能可以增强教师,就是可以使得我们老师做到以前做不到的事情。比如,举一个非常简单的例子,我们有个团队在做一个研究项目叫“AI好老师”,我们孩子在成长过程中,经常遇到各种各样的问题,比如说小的问题,打架、不守纪律、网络成瘾、过分崇拜明星、早恋等等这些问题,这些问题背后都是有教育学、社会学、心理学、生理学的一系列的原因,但是这些原因是很深的,一般的老师很难说把各种知识都很了解,我们很多老师、很多家长面对孩子出现这些问题的时候,总是简单地打骂或者简单的斥责,这样对孩子于事无补。

这个时候,像我们就做了一个项目叫AI好老师,我们建立了0-18岁儿童成长过程中常见的典型的问题知识库,以及每个问题背后的教育学、心理学、社会学、生理学这方面的原因,以及一些如何干预,对这些问题如何进行干预的优秀教师的案例,我们收集了优秀教师处理这些问题的案例,这样就会形成智能的系统。

只要和那个系统说,我的孩子早恋了,他会问你几个表现,如果你确认之后,他说这可能是早恋,他分析早恋的原因是什么,社会学、心理学的原因是什么,再给出某一个很好的老师处理过这个事情他是怎么和孩子沟通的,他可以把符合教育教学规律的案例,让老师学习。这样可以提高我们老师的育人的能力,提高家长和孩子相处的和谐程度,促进学生身心健康的发展。

再比如体质健康,现在儿童成长过程中的身体体质这些方面的发展越来越重要。除了知识以外,身心健康其实更重要,我们完全可以通过一些智能手环、智能肺活量的工具、智能跳绳工具,以及运动器材,会通过5G加上传感器以后,可以自动采集学生运动过程中的各种数据,把这些数据通过5G传送到云平台以后,就可以限定学生的心率、血氧、运动脉搏各种各样运动参数的常模数据库,有了这个数据库以后,可以对学生的运动知识、运动技能、营养情况、身体发育等这些方面的情况进行进一步的分析,分析可以发现学生在体质健康上存在哪些问题,或者哪一种体质类型,可以给出有针对性的运动处方的方案,也可以发现学生在运动中有哪些优势,从而增强他的优势。

我举这些例子就是想说明,我们很多教育中理想中希望老师能做到的事情,但是由于传统的时间精力以及能力的问题,我们做不到,现在人工智能可以增强我们教师,使得我们教师能够做到这些事情。人工智能和教师是相互赋能、相互增强的关系。

但是,虽然人工智能不会取代老师,但是会使用人工智能的教师会取代不使用人工智能的教师,我们教师还要主动适应互联网、大数据、人工智能时代新的技术的变化、新的技术的变革,不断进一步的学习,善于使用,关注最新的进展,希望老师能够努力把这些东西融入到他的日常教学中,从而提高自己的教学效率。

主持人

刚刚您说了很多人工智能和教师之间的互相赋能、互相增强的关系,随着人工智能的普及或者应用,对教师的压力是不是挺大的?教师之前可能只要备好课、教好学生,关心学生成长,现在要学习更多的人工智能方面的知识。人工智能在人才培养方面,我们是不是现在也是一个非常重要的环节?

余胜泉

人工智能的知识学习有一个渐进的过程,人工智能核心就是智力的自动化,像机械是我们体力的延长一样,人工智能是我们脑力的延长,可以使得我们人能够处理以前无法处理的复杂事情,实际上是提高我们老师的效率,适当的学习这些知识。像我们生活中,比如天天拿着手机录语音,那个复杂吗?不复杂。但是,背后的技术是很复杂的。

但是对于应用来说并不复杂。我们老师对人工智能的学习不要太担心。但是,你刚才提了一个很重要的问题,人工智能人才的培养。确实,人工智能人才的培养是我们国家和整个社会迈向智能时代的一个非常关键的地方。

我觉得,一是面向大众来说,我们要培养了解人工智能,未来会对我们的社会产生哪些影响,了解人工智能在现实生活中有哪些应用,这样理解这个社会的变化,主动拥抱这些变化,这是对非专业的人士。对一些专业人才,我觉得可能我们国家,一个是要加强人工智能的职业教育,在职业教育大力普及人工智能的一些技术,人工智能工程方面的工作。

比如要向使得人工智能的发展,今后数据处理是很重要的能力,数据收集、数据标记、数据关联、数据工程。第二,今后机器学习、机器训练,了解典型的各种机器学习的原理,以及它的训练的技巧、训练的方法。

另外,了解人工智能和各行各业,对各行各业特定的领域知识库的应用,以及应用系统的配置管理,我们要在职业教育里面大力加强人工智能专业的发展,让他能够很好地支持、管理以及推进人工智能在各行各业的应用,使他有序化。

另外,人工智能还要加强研究性人才的培养,大学里面研究性人才的培养。因为人工智能不是一天练成的,是一个信息科技在一个时间段内持续性发展的一个过程,智能爆发。智能爆发的背后是有成千上万研究者的智慧转化为我们生活中可以实际应用的系统,这个时候我觉得,在人工智能领域里面,高校的职责,一个是把我们信息科技,计算机相关专业办好,这是人工智能的基础。

另外,希望有一些有实力的高校多办人工智能的专业,尤其是研究性高校,这是推进技术往前进步的核心动力,需要有精英参与。另外,这个过程中,我们特别要避免计算机教学,或者人工智能教学、人工智能研究,以唯论文为核心,论文很重要,光有论文解决不了问题,一定要以解决实际问题,形成开源的系统。

像国外,计算机科学,很多大学做的那些开源的系统,对这个行业的发展,对这个研究的发展起着非常大的推动作用,但是在我们国家,这种有影响的,寥寥无几,而且不受认可,做一个几百万人用的开源系统可能还不如人家写一篇SCI论文,这是不健康的,因为这些东西最后使得我们纯理论化,对于整个行业、整个产业发展是不利的。

所以我们特别希望在计算机科学的教育,以人工智能的教育,要强调多结合实践,当然不是不发表文章,文章还是要,需要解决重大实际过程中去发文章,而不是为发文章而发文章,要解决重大实践问题,做出能够得到广泛使用,能够推动这个行业往前迈一步的应用系统,这样的话,才使得我们的研究和产业发展能够一步一步往前走。

我现在看到我们在北京市的一些中小学,他们已经开设人工智能课程了。现在在中小学开设人工智能课程,会不会太早了?

我也看到了,现在有很多学校开一些人工智能的课。还有一些企业专门编了中小学的人工智能课程。当然我觉得,在中小学,适当普及人工智能的常识是对的,但是有一些过于急功近利不值得倡导。我看过一套人工智能的教材,从三年级就开始开人工智能,很多词汇术语可能都不清楚,现在给他讲很复杂的知识,这是不合适的。因为这些知识,这个时候去学,同样一个东西理解,可能两三个星期才能明白这个词说什么意思,但是等到成年以后,可能只花两三个小时就能明白这个事情。

所以我不鼓励太多复杂的知识进入到中小学,但是适当的让小孩子理解人工智能对现实社会的变化的影响,了解人脸识别,可以做什么,了解各行各业里面应用的现象,就像我们了解汽车、飞机可以飞的道理。比如同样一个力,我们小学生也要学力的概念,但是只要知道力是相互作用的就可以了,但是到了大学就要了解力和力之间复杂的关系,甚至还要了解宏观的力和微观的力是完全不同的性质。

同样是讲人工智能,你对低年级的时候应该以浅显、形象了解为主,到了那些知识复杂算法还是应该到大学,到研究生阶段再去教比较合适。适当地让学生有一些体验性的活动,以结合信息技术课,寓教于乐,结合信息技术课,尤其是在小学,我不赞成系统开人工智能的课,但是可以让学生有感性的认识、感性的体验性的可以的。

但是概念体系和编程能力,并不见得要那么系统化。但是适当到了初中和高中的时候,结合信息技术课,因为本身信息技术课是有的,结合信息技术课适当渗透人工智能的知识,这是可以的,这是合适的。否则容易超前教学。现在什么东西都要往中小学渗透,中小学的负担太重了。

实际人的心智是有个发展的过程,当心智发展不全的时候,学一个东西花很长时间,抽象思维水平到了一定程度以后,花几个小时就学会了。要提高他到了成年以后的学习能力,小的时候要适当地给他留白,留空。让他不受过重的学习负担的压力。因为过分的学习负担的压力会造成学生学习的厌倦、倦怠,以及泯灭他的好奇心、求知欲,一旦一个孩子成长过程中,没有了好奇心、没有了求知欲,养成了功利性读书的习惯,对于他一辈子的成长都会起着巨大的障碍作用。

真正的杰出的人才都是具有很强的自学能力,很强的自律意识,很强的好奇心、求知欲在这里驱动,是内在驱动的,而不是外在驱动的。外在驱动,环境变化,有外在的驱动力弱了以后,基本就停滞不前,现在过分的学习负担过重,会对小孩子的好奇心、求知欲会起到压制作用,长期来说不好。

主持人

感谢余教授提出的中肯的意见。我们知道余教授所在的北师大未来教育高精尖创新中心是2015年成立的,到现在四年时间了,你们肯定也在致力于人工智能在教育方面的落地和研究,您觉得,通过这四年的努力和研究,有没有发现我们国家人工智能现在在我们教育领域当中会不会存在着一些问题或者挑战?

余胜泉

目前人工智能在实际应用过程中,还存在一些问题,我觉得代表性的可能体现在,一个是目前产业界对人工智能应用的场景过多的关注讲测考练,知识性的教学太多,都在用人工智能提高知识教学的效率,比如都在适应性学习,做题库,经典推荐,当然有一定作用,但是这个是对原来我们教学优势的一种强化,有时候强化的极致以后反而成了一些问题。

用人工智能进行应试教育方面做得比较多。我们其实特别希望人工智能不光是要做应试教育这方面内容,更多的需要人工智能在学生身心健康发展方面,学生体质健康发展方面,降低学生负担方面,帮助我们教育做科学决策方面,发挥更大的作用。应用场景一定要多元化、多样化。

比如我看到过一个美国的公司做的产品,给盲人做了一个智能手环,拿手在书上划,就能把书上的文字变成语音,让盲人也能听到,这种应用非常有价值,我们国家都是在搞知识性教育,原来学生做五道题,再给你做五道题,纯讲测考练的,这样就有点违背我们的教育教学的规律。这是第一个问题。

第二个问题,我觉得,目前人工智能还存在数据的问题。就是人工智能真正要发挥作用,需要有各种各样的学习数据,而且这个数据要贯通形成,有更多的数据才有更多的智能。形象地说,人工智能像汽车,数据就像汽油,没有数据,汽车就跑不起来。这种数据目前还存在着,一个是数据的孤岛,数据隔离的现象,每个系统都有各自的数据,数据没有融会贯通。

第二,数据使用的规范也存在问题。学习过程中的数据,涉及到孩子的隐私,目前隐私伦理在教育数据利用方面还缺乏清晰的规范,我觉得应该有这种清晰的教育数据利用的伦理和规范,尊重儿童身心健康以及个人隐私的前提下,合理利用数据。当然也不是说完全不用,完全不用会扼杀这个产业。一是数据贯通,一个是要遵循数据的伦理和规范。

第三个问题,人工智能还存在着技术上本身还有很大的发展。目前真正大规模使用的,像英语口语考试、英语的学习,以及英语作文的批改,这些方面做得相对成熟一些,智能教学,仪器教学装备有了一些。但是很多我们理想上问题的解决,还有待人工智能技术的进一步的成熟。这种成熟关键在于,一是要把人工智能产业界的技术人员和我们教育体系里面的人员结合在一起,形成交叉融合。

如果纯技术驱动,不懂教育规律,有时候就用技术强化我们教育中的很多违背规律的做法。实际上要在正确的教育思想、教育理念、教育规律下发挥技术所应该发挥的作用,一定要在遵循教育规律下不断地推进我们的技术成熟。这对于人工智能的发展也会起到非常重要的作用。

另外,人工智能还要避免两个极端思想。一种极端思想就是认为人工智能能做一切,什么问题都能解决。唯人工智能论。今后人工智能会取代老师,人工智能会取代学校,这都是比较简单的过分乐观的,像我们接触过原来一些企业界的,未来互联网会消灭学校,走了20多年,学校还很好,不可能的。

人工智能不会取代学校,也不会取代老师,不要过于乐观。另外,也要防止那些过于悲观。有些认为人工智能一点用没有,花架子之类的,也要防止这种过于的悲观。这两个之间要有些平衡,要防止这两个极端的事情。

另外,人工智能在用于一些关键性业务的时候,高利害业务的时候,可能还需要各种保障机制,像前段时间,印度就出了一个事情,印度的高考,由于它的高考阅卷系统出现故障,造成很多孩子都不及格,印度那段时间自杀了十几个,自杀了好多孩子,因为印度的高考是高利害的,和我们二三十年前一考定终身差不多,这也给我们启示。高利害的这些应用一定要慎重。比如说我让人工智能来阅卷,这个阅卷是高利害的,决定一个人的很大利益的。

这个时候我建议应该采用多种原理的技术,因为人工智能同样实现这个东西,可能有不同原理,不同原理的技术,比如我找三个产品来同样做这件事情。如果这三个产品都能够有一致性,这就比较稳定。如果有差异,这个产品好,那个产品差,有分歧的时候,这时候人工介入。这是比较科学的。在高利害的应用领域里面,还需要人机结合的思维方式。这种方式非常重要。

主持人

谢谢。今天非常感谢余教授和大家一起分享人工智能在我们教育领域目前的应用。包括我们未来还需要解决哪些问题,受益匪浅。非常感谢您。感谢大家收看我们今天的节目,下期见。

|来源:人民网

|美编:甄宏莉返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇