人工智能促进经济高质量发展:机理、问题与对策
摘要:人工智能技术具有渗透性、协同性、替代性、创造性等技术—经济特征,人工智能促进经济高质量发展的机理可概括为对三类产业的扩张效应、赋能效应和活化效应。其中,核心产业扩张效应与融合产业赋能效应交互构建了促进高质量发展的动态循环过程,潜在关联产业活化效应则通过提供非匹配、非集约、非规整、非公平问题解决方案促进经济社会高质量发展。当前,中国在世界人工智能领域第一梯队的地位愈发巩固,技术创新处于关键突破期,在地域空间上则形成了三大城市群为重要引擎、沿海地区快速增长、内陆地区稳定增长的发展格局。我国人工智能促进经济高质量发展还存在核心产业低质扩张、融合产业低效赋能、潜在关联产业低迷活化、相关社会伦理道德规范缺失、相关人才短缺且结构不合理等问题。为此,我国要推进基础理论研究和关键共性技术开发,提高科技自立自强能力;优化行业发展环境,促进产业生态良性发展;完善相关法律法规和伦理规范制度,促进人工智能“科技向善”;构建高素质人才培养体系和人才流动机制,促进包容性均衡发展;加快人工智能创新应用先导区和创新发展试验区建设,推进改革试点和应用示范。
关键词:人工智能;高质量发展;技术创新;核心产业;融合产业;潜在关联产业
基金项目:国家社会科学基金重点项目“新技术革命背景下全球创新链的调整及其影响研究”(19AJY013)
人工智能(AI)是指研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。作为新一代信息技术革命的代表技术之一,人工智能利用计算设备模拟人类思维决策过程,广泛应用了计算机、数学、物理学、生物学、逻辑学等学科的理论与方法。自1955年达特茅斯会议首次提出“人工智能”概念以来,人工智能经历了60余年的曲折发展,研究重点从早期(1956—1974年)基于符号主义的逻辑推理、启发式搜索,到中期(1974—2006年)符号主义与连接主义融合催生的神经元网络方法、专家系统,发展到近期(2006年至今)基于行为主义纲领的深度学习方法突破所带来的多领域广泛应用[1]。1974年以来的人工智能发展都可归类为连接主义,但2006年之前的连接主义主要对人类大脑活动进行模仿,并没有合理借鉴大脑产生智能的机制。2006年,深度学习方法在卷积神经网络等模型和参数训练技巧等方面取得突破,同时信息设备、算法算力、使用数据也迎来了革新、进步与增长,人工智能实现了跨越式的发展。目前,人工智能研究领域主要分为六大类:计算机视觉、自然语言处理、机器学习、认知及推理、机器人、博弈及伦理。人工智能已经成为世界各国竞争角逐的焦点,其发展水平是国家核心竞争力的重要体现,将对经济发展、社会进步、国际政治经济格局产生深远影响。
党的十九大报告明确提出,推动互联网、大数据、人工智能和实体经济深度融合,作为我国深化供给侧结构性改革、建设制造强国、促进经济高质量发展的重要举措。党的十九届五中全会通过的《中共中央关于制定国民经济和社会发展第十四个五年规划和二〇三五年远景目标的建议》强调,要推动互联网、大数据、人工智能等同各产业深度融合,这是建设制造强国、质量强国、网络强国、数字中国重要内容,是提高经济质量效益和核心竞争力的关键。本文对人工智能如何促进经济高质量发展的机理进行探讨,分析人工智能促进经济高质量发展存在的问题,提出相应的对策建议。
一、人工智能促进经济高质量发展的机理分析
习近平总书记在十九届中央政治局第九次集体学习时强调,人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。人工智能具有溢出带动性很强的“头雁”效应,在移动互联网、大数据、超级计算、传感网、脑科学等新理论新技术的驱动下,人工智能加速发展,呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征,正在对经济发展、社会进步、国际政治经济格局等方面产生重大而深远的影响。我国经济已由高速增长阶段转向高质量发展阶段,迫切需要新一代人工智能等重大创新添薪续力,要推进人工智能和产业发展融合,为高质量发展提供新动能[2]。
(一)人工智能的技术—经济特征
人工智能技术既具有一般通用型信息通信技术所具有的渗透性与替代性特征,同时还具备与各经济要素协同配合提升经济效率的协同性特征,以及替代人类脑力工作的创造性特征。
1.渗透性。作为一种兼具通用性、基础性和使能性的数字技术,人工智能具备与经济社会各行业、生产生活各环节相互融合的潜能,这种广泛应用于经济社会各领域的特征被定义为通用型技术的渗透性。在发展初级阶段,人工智能只能应用于简单场景,解决一些抽象概念性的游戏问题,但随着人工智能技术发展,人工智能被越来越多地应用于多元场景、复杂场景,问题解决边界也向实际应用拓展。这种应用复杂化的趋势即是对人工智能技术渗透作用的印证。渗透作用是通用型技术最基本的技术—经济特征,也是计算技术领域重大创新能够引发技术革命,带来技术—经济范式转换的技术基础。渗透性特征决定人工智能具有对经济增长产生广泛性、全局性影响的潜力。在可预见的未来,人工智能技术将更加全面地融入日常生产生活活动之中,成为经济社会不可替代的一部分。
2.协同性。人工智能的协同性在一定程度是其渗透效应的具体实现。人工智能技术作为通用型技术渗透进入经济社会各个方面,在生产领域,人工智能技术的应用可以提升资本、劳动、技术等要素之间的匹配度,加强上游技术研发、中游工程实现、下游应用反馈各个生产环节之间的协同,从而提高运行效率。在消费领域,人工智能技术可以实现对用户消费习惯与消费需求的自动画像,完成需求与供给的智能匹配,进一步释放消费潜力的同时,实现经济的高质量增长。总的来说,人工智能的协同性特征体现在对经济运行效率的提升。蔡跃洲等核算了中国在过去三十年中ICT资本对增长的贡献率,并使用格兰杰因果检验印证了ICT资本与全要素生产率TEP增长具有因果关系,ICT资本通过与各个经济要素的协同促进了经济效率提升,最终推动了GDP的增长[3]。
3.替代性。随着设备设施与技术研发的持续发展,信息通信技术(ICT)产品相对价格持续下降,从而出现ICT产品对其他投资的大规模替代。如芯片领域的摩尔定律预言集成电路晶体管数目约18个月便会增加一倍,这使得芯片在能够解决更多问题的同时成本持续下降,实现对非ICT资本的不断替代。人工智能除了对非ICT资本的替代效应外,更能实现对劳动要素的直接替代,蔡跃洲等将人工智能对就业的影响分解为负面的替代效应与正面的抑制效应,并得出结论认为就业总量基本稳定的趋势还将延续一段时间,人工智能完全替代人类劳动的极端情形中短期不会出现[4]。人工智能技术持续发挥替代效应,在作为独立要素不断积累的同时,对其他资本要素、劳动要素进行替代,其对经济发展的支撑作用由此不断强化。
4.创造性。生产自动化能够实现对一些高强度、高难度的持续劳动进行替代,而人工智能之所以引起人们对就业前景强烈担忧的原因更在于其能够实现对人类脑力工作、创造性活动的替代。当下人工智能技术已经被广泛应用于药物发现及筛选、材料识别及模拟等科研活动,更是在金融、数字建模、应急救援、音乐绘画等领域被广泛赋予分析决策甚至是创造创新的权力,展现出人类历史上从未有过的来自人类头脑之外的创造力量。人工智能的创造性可以生产出额外的知识,增加人类整体智慧总量,从而促进技术进步,提高经济效率。针对人工智能将完全取代人类工作的担忧,Holford对人工智能的创造性进行了分析,认为人工智能技术主要通过符号解释、形式化和意义捕捉的方式获取知识,对于人类整体知识和隐性知识的复杂性、创造性较难模仿。在不出现颠覆性技术突破的情况下,人工智能技术无法实现对人类创造的完全替代[5]。
(二)人工智能促进经济高质量发展的机理与效应
人工智能代表了未来经济发展的无限可能性,现有观点普遍认为人工智能可以通过提高生产率促进经济增长。在微观个体活动方面,人工智能发展传统自动化为“智能自动化”,持续释放个体创造力,极大提升劳动生产率。在中观行业生产方面,人工智能不断提升生产能力与资本效率,对行业进行分析并作出控制决策,解决某些行业生产准确率低、工作量大、设备闲置、安全性差等一系列问题。在宏观经济发展方面,人工智能促进管理效率、资源配置效率和社会交易效率的提升,推动创新并提高全要素生产率,深化分工形式,大大拓展产品创新的空间,从提升分工专业化效率转向提升分工多样化效率,从多样性角度拓展生产可能性边界[6-7]。师博从生产、分配、交换、消费四个方面探讨了人工智能充分契合创新、协调、绿色、开放、共享的新发展理念,在生产环节发挥创新效应与技术外溢效应实现创新发展;在分配环节优化分配结构同时提升分配效率深化共享发展;在交换环节,通过平台经济、国际共建等方式实现协调、开放发展;在消费环节改进消费质量,加速绿色消费,贯彻绿色发展理念。人工智能在贯彻新发展理念的同时,与经济社会充分融合,实现经济的高质量发展[8]。任保平等聚焦人工智能与实体经济的融合增长效应,从培育高端要素、优化要素禀赋结构的供给侧到普及智能产品与服务、多元化需求渠道的需求侧,双向探讨人工智能对实体经济的融合促进作用,并结合我国当前发展阶段,分析人工智能对传统产业、新兴产业、新商业模式以及供需协同的带动作用,提出构建融合支持体系、加强新基建、培育产业环境、优化投融资支持、深化对外开放等建议[9]。罗以洪基于数字产业化、产业数字化、数字化治理的模型框架,结合宏观理论中四部门经济的各个部门与要素特征,提出政府、消费者、生产者、国外消费者、国外生产者以及金融机构四部门数字经济模型,细化资源型、技术型、融合型、服务型四种数字经济类型,提出具有针对性的数字经济高质量发展路径与对策建议[10]。
已有研究对人工智能如何促进经济高质量发展的机理分析主要集中在以下几个角度:一是基于微观、中观、宏观三重视角进行分析,其具有坚实的经济逻辑支撑,易于进行理论分析,并提出相关政策建议;二是从生产、分配、交换、消费等经济环节进行分析,其更加全面地聚焦经济社会整体的高质量发展,并与新发展理念有着高契合度;三是以中国信息通信研究院提出的数字经济分析框架(数字产业化—产业数字化—数据价值化—数字化治理)为基础进行分析,这一角度具备国际通用性,同时在实证分析方面具有广泛的研究基础,有较多的研究基于相同框架对国内外不同主体进行数字经济测算。与此同时,上述角度都存在一定缺陷:微观、中观、宏观三重视角难以聚焦人工智能产业如何实现发展的高质量,经济环节视角则难以提出有针对性的促进建议,并且在量化发展质量、实证分析路径效应方面二者都有着较大的局限性。数字经济框架则是为数字经济所设计,套用于人工智能产业需要进一步探讨其适配性。
本文基于人工智能的技术—经济特征,对经济社会产业进行划分,并根据划分结构针对性分析人工智能对经济高质量发展的促进机理。经济社会产业可以分解为三种类型,即核心产业、融合产业、潜在关联产业(见图1)。首先,作为一项系统性较强的数字技术,人工智能催生了一系列配套核心产业,其产品服务涵盖了上游研发到下游应用的产业链各环节。其次,人工智能通过发挥渗透性、替代性、协同性、创造性四大技术—经济特征,对一些已有产业进行技术赋能,进而创造出智慧农业、智能制造、智慧建筑、智慧医疗等一大批产业融合新生态。最后,针对目前经济社会中市场化程度不高,尚与人工智能关联较弱的经济社会领域,在不久的未来,人工智能可能通过对其资产与产业环节的“激活”,实现意料之外的爆发式增长。
图1三类产业:按照与人工智能联系程度来
1.核心产业的扩张效应。人工智能作为一项系统性较强的数字技术,其应用的实现离不开技术研发、软硬件开发、算法模型训练、具体场景应用等一系列环节,从而催生了一系列支撑配套的核心产业,有着完备的产业链条,其产品服务涵盖了上游研发到下游应用的各环节。在软件层面,人工智能技术包括算法软件、图谱模型、处理流程等内容的开发,而在硬件层面,人工智能技术涵盖专用芯片、存储器、处理器等硬件设施的生产,除此之外,还包含对数据的搜集与处理,对样本进行学习,对模型进行训练等一系列配套工作。人工智能技术是一项涵盖诸多技术产品的复杂系统,从上游的技术研发到中游的工程实现,再到下游的应用反馈,系统中各个环节都对应着相匹配的产品及服务,随着行业的发展人工智能行业逐渐形成了一套相对独立的核心产业体系。
人工智能促进经济高质量发展的路径之一,即是人工智能核心产业的扩张增长效应。人工智能产业体系根植于高新信息技术产业,但不同于其他信息技术产业,人工智能具有与生产生活应用更高的融合度,可以快速响应具体问题,根据不同的场景生态提供对应的应用方案。不断增长的应用需求使得人工智能产业保持较高速度的增长,同时也促进了基础信息技术产业的壮大,人工智能核心产业的扩张增长符合产业结构优化升级方向,其对经济的支撑作用不断强化,促使经济实现高质量发展。
2.融合产业的赋能效应。人工智能技术发挥渗透性、替代性、协同性、创造性的技术—经济特征,输出智能化设施、智能化方案,对已有产业进行智能化改造,实现数字经济与实体经济的融合发展,通过提质增效促进经济高质量发展。
在农业领域,人工智能融入农业生产、物流、出售等环节中,实现农业生产的无人数控、基于数据分析的生产决策、智能农业机器人的精准执行等转变。中国工程院院士赵春江认为,数字技术将实现农业的产业结构升级、产业组织优化和产业创新方式变革,进一步实现农业从自然资源依赖向知识资源依赖的转变[11]。在工业领域,人工智能基于不同工业行业的产业特征提供生产服务的精准升级,一方面在生产端实现冗余资产的发现切除、错配资产的优化调整、闲置资产的重新激活,促进生产效率的提升;另一方面在消费端实现用户需求的快速响应、精确匹配、个性定制,充分释放消费端潜力。人工智能目前已经实现了客户识别、定向展示、工业数据分析等诸多应用。在服务业领域,人工智能早已应用于金融、旅游、物流、文化体育等各个领域,其中在金融领域进行赋能的研究与实践最丰富,人工智能的分析与决策潜力被认为是打造数字金融体系,实现包容性增长的重要路径之一[12]。如今人工智能技术正越来越多地被应用于供应链、交通物流、工业互联等领域,在工业、农业、金融、公共安全等行业逐步构建多样化行业技术服务及解决方案平台,将智能技术与行业数据、专业知识、业务流程深度融合,形成细分领域垂直行业平台,提供相对通用的行业应用服务。人工智能核心产业与融合产业促进经济高质量发展的动态作用机理见图2。
图2人工智能核心产业与融合产业促进经济高质量发展的动态作用机理
核心产业与融合产业之间并非独立增长的割裂状态,相反,人工智能对融合产业的增长赋能离不开人工智能核心产业高质量智能化设施与智能化方案的支撑,而核心产业的持续迭代更新也无法脱离融合产业提供的技术升级需求与场景数据反馈,一些阶跃性的模型优化与算法创新在高质量的场景数据支持下可以在短时间内达到极佳的训练效果并迅速投入推广使用,节省大量训练成本。核心产业与融合产业对经济高质量发展的促进作用是一个具有循环化、动态化特征的交互促进过程,在这个交互过程中,核心产业的底层架构创新能力与迭代速度持续提升,数据更加自主可控、安全高效,而融合产业的赋能边界不断拓展,逐步覆盖国民经济全产业链各环节。两类产业对经济高质量发展的促进路径具有内生自我反馈机制,在循环往复、不断深化的持续性过程中,实现更加全面、深化、自主、包容的经济高质量发展。
3.潜在关联产业的活化效应。除核心产业的扩张效应与融合产业的赋能效应外,作为一项颠覆性技术,人工智能还将对经济体系中的潜在关联产业产生重要驱动作用,即产生“活化效应”,带来创造性地增长。很多原本与数字技术毫无关联的产业,在人工智能行业产品输出、服务输出、技术输出、范式输出、商业模式创新等助力下得到活化,迎来了新一轮高质量发展行情。比如,在十余年前,外卖还只是人们拨打商家电话进行点餐配送行为的别称,而如今,外卖在人工智能技术的加持下,通过算法推荐、匹配骑手、产业链优化等方式,已经成长为一个万亿规模的巨型市场。在日常出行领域,人工智能技术为高效安全出行提供支持,在房地产行业,人工智能技术为交易主体实现智能匹配,降低交易时间成本,提升社会福利。我们正处于一个剧烈变革的时代,在可预见的未来,这种活化效应将越来越多地刺激经济社会的各个潜在关联产业,实现高效集约、创新绿色的高质量增长。
活化效应与融合产业的赋能效应有所区别:一是活化效应面对未来,活化对象更多指目前还未与人工智能技术产生交集的潜在行业;二是赋能效应的对象是融合产业,赋能过程中人工智能与融合产业的交互作用、动态发展,需要融合产业不断提供产品服务信息,而活化效应更多通过人工智能核心产业单向输出实现。
此外,对于部分潜在关联产业,特别是非正规部门(可称为市场外潜在关联产业),人工智能通过将其进行资本化来实现活化效应。索托在《资本的秘密》一书曾讨论这类广泛存在于发展中国家,严重阻碍社会部门运转以及经济产业发展的产业,包括城乡接合部非正式市场系统、非法作坊、非法建筑等。这些正式体系之外的经济部门在一定程度上弥补了正式经济领域的空白,但当其比重过大时便会形成对经济社会发展的强大阻力[13]。邱泽奇等将这类资产获得市场进入机会定义为资产的资本化过程,认为促进有效资本增长的途径有两条:其一,提高资本化程度;其二,增加资产数量[14]。在市场外潜在产业的资本化方面,数字技术展现了前所未有的催化效率,而人工智能技术更是综合大数据、识别匹配、智能决策等流程于一体,在社会各个方面实现冗余资产的发现切除、错配资产的优化调整、闲置资产的重新激活,促进了资产的高速、高效资本化。
人工智能通过对市场内潜在关联产业的活化效应,解决产业内存在的问题:其一,供求双方信息流通受阻,市场信息不对称的非匹配问题;其二,产业规模增长而质效降低的粗放增长非集约问题。对于市场外潜在关联产业,人工智能的资本化效应则解决了两方面的问题:其一,非正式产业尾大不掉的非规整问题;其二,数字设备能力差异化、市场进入机会不平等、地域发展不均衡等非公平问题。人工智能充分发挥对潜在关联产业的活化效应,作用范围逐步覆盖国民经济全产业链各环节,提供经济发展过程中非匹配、非集约、非规整、非公平问题的解决方案,实现经济的高质量发展。
二、我国人工智能发展现状
长久以来,中国在世界科技发展历史中扮演着追赶者的角色,而人工智能是我国在新一轮技术革命中率先取得领先优势地位的少数领域之一。2020年中国人工智能核心产业规模达到3251亿元,年度行业投融资金额突破800亿元[15],人工智能正加速与实体经济融合发展,助力产业转型升级、提质增效。
(一)基于行业发展视角,中国处于人工智能领域的第一梯队地位
目前我国在人工智能领域的论文发文量、专利申请量方面都居于世界前列,并且增长速度正进一步提高。总体而言,中国人工智能处于全球第一梯队位置,成为仅次于美国的第二大贡献国。
根据中国科学技术发展战略研究院、科技部新一代人工智能发展研究中心发布的《中国新一代人工智能发展报告2020》数据显示,2019年中国共发表人工智能论文2.87万篇,比上年增长12.4%,单年论文规模达到美国的1.5倍,相比2013—2018年共产出7.4万篇有了大幅提升。在全球近五年前100篇人工智能论文高被引论文中,中国产出占21篇,相比2018年增加5篇。中国在人工智能领域各顶级国际会议上的活跃度和影响力不断提升,在自动机器学习、神经网络可解释性方法、异构融合类脑计算等领域中都涌现了一批具有国际影响力的创新性成果。中国人工智能专利申请量2019年超过3万件,比上年增长52.4%[16-17]。另据深圳市人工智能协会发布的《2021人工智能发展白皮书》,截至2020年底,中国人工智能相关企业数量达到6425家,同比增长25.37%,企业数量位居全球第二[18]。另外,中国始终以积极的姿态推动人工智能领域的国际合作,在国际人工智能开源社区的贡献度已成为仅次于美国的第二大贡献国。
(二)基于技术研发视角,中国正处于人工智能发展的关键突破期
人工智能对经济社会高质量发展的促进力量根植于自身的通用性技术特征,而作为一项引领新一轮产业变革的数字技术,其对产业的变革动力来源于底层的一系列技术创新。中国信息通信研究院对人工智能技术创新程度和突破难度进行分类,从高到低分为颠覆、阶跃、创新优化和工程实现四个发展层级[17]。目前,我国在创新优化和工程实现技术方面处于全球领先位置,但在颠覆性和阶跃性技术方面相对缺乏,缺乏全球引领能力。
据中国信息通信研究院测算,现阶段我国在视觉、语音等基础智能任务的工程实现水平,处于世界领先位置,算法模型的二次创新优化能力同样居于世界前列,但在基础理论、原创模型等颠覆性、阶跃性技术领域仍不具备领导能力[19]。具体而言,中国有一大批人工智能研发机构致力于吸收改造领域内的人工智能算法技术并对其进行场景应用方面的训练,在完成工程实现的同时,基于丰富的场景、用户数据对技术模型进行较小的创新优化。如中国科学院大学人工智能学院近年来开发了基于大数据的互联网机器翻译核心技术及产业化(2017)、大规模知识图谱构建关键技术与应用(2020)等项目。在企业方面,旷视科技融合算法、算力和数据,打造新一代AI生产力平台旷视Brain++,开源深度学习框架“天元”,其ShuffleNet模型具备轻量级CNN模型结构,在同等计算复杂度下可编码更多信息。极智嘉科技基于丰富运营经验和场景积累,建立了国内机器人数量最多、出货能力最大的机器人拣选仓库产品和解决方案系统,覆盖订单拣选、自动搬运、包裹分解等不同物流应用场景,提供环境地图构建、动态环境适应、混合场景多传感器融合、自适应运动等一系列技术服务。依图科技与上海交通大学、芯片公司ThinkForce合作建立“视觉计算与应用”联合实验室,搭建全球最大的人像系统,覆盖超15亿人像,为全国20余省的安防、海关总署、中国边检等合作伙伴提供人像比对服务,并广泛应用在招商银行、浦发银行等多个互联网金融业务场景中。
尽管中国在视觉、语音、自然语言处理等基础应用任务的算法开发上技术完成度高、处理能力强、迭代速度快,多所企业与高校在全球权威比赛中成绩优异①,但是,在颠覆层级的基础理论开发,以及阶跃层级的模型原创或技术优化方面,中国缺失与产业体量相匹配的领导力。一方面,知识工程、深度学习、神经网络等人工智能基础理论开发需要相关统计学、认知学、神经学等底层学科作为理论基础,而中国长久以来一直在现代基础学科理论创新方面落后于欧美发达国家,缺乏基础性创造性贡献。另一方面,中国还没能掌握人工智能热点发展方向的决定权,技术标准、数据标准体系长期对标国际,国内研发重心长期跟随国际,缺失人工智能领域技术研发话语权,短期难以突破领域内寡头垄断格局。
①商汤、旷视、依图、腾讯等企业在细粒度图像识别、自动驾驶场景定位及追踪、行人重识别(ReID)、人体视频解析等复杂任务各类比赛中成绩优异;哈工大讯飞联合实验室(JointLaboratoryofHITandiFLYTEKResearch,HFL)在推理阅读理解评测任务(HotpotQA)全维基赛道中获得第一。
(三)基于地域空间视角,中国形成了三大城市群为重要引擎,沿海地区快速增长,内陆地区稳定增长的发展格局
自2017年国务院发布《新一代人工智能发展规划》以来,全国各地加快推进具有地方特色、符合地方定位的人工智能战略规划布局,央地共治共同推动人工智能发展成效显著,相关细化政策不断完善落地。当前中国形成了以京津冀、长三角、大湾区三大城市群为重要引擎,沿海地区快速增长,内陆地区稳定增长的人工智能地域发展格局。其中,京津冀城市群形成以北京为绝对核心的单核加速发展态势,长三角城市群构建以上海、杭州为正副核心的双核引领发展态势,大湾区城市群形成以深圳、香港、广州为核心的三极协同发展态势。三大城市群以外,主要有成都、武汉、长沙、合肥等城市支撑起了内陆地区人工智能领域的发展。
截至2020年底,中国人工智能企业数量达到6425家,京津冀、长三角、大湾区三大区域占据了企业总数量的80%以上。广东、北京、上海、浙江在企业专利申请数量方面领先全国,广东、江苏、北京、浙江是人工智能专利转移最活跃的地区,这些地区通过科技成果供给激发了区域经济发展新动能。2019年人工智能论文发表活跃度排名依次为北京、江苏、广东、湖北等地。2020年人工智能领域从业人员超过60万人,而北京、上海、深圳、杭州聚集了80%以上的人工智能人才①。三大城市群的人工智能快速发展离不开一大批人工智能研发机构的底层支撑,笔者根据机构资料与中国信息通信研究院对人工智能技术层级划分标准,对地处三大城市群的人工智能研发机构进行了简要划分。在北京,有清华大学神经网络结构研究中心、北京大学智能科学系、微软亚洲研究院、百度深度学习研究院支撑起颠覆与阶跃层级的技术开发,中科大模式识别实验室、北理工仿生机器人与系统国际合作联合实验室、旷视科技计算机视觉研究院等则聚焦创新优化与工程实现级的技术研发。上海与杭州在颠覆与阶跃层级的基础理论开发有上海交通大学人工智能数学基础、机器认知计算研究中心、复旦大学类脑智能教育部重点实验室、深兰科学院等校企机构,创新优化与工程实现级则有浙江大学计算智能与信号处理研究所、多源感知与机器智能研究所、之江实验室、上海智能机器人工程技术研究中心等研发机构提供支撑。大湾区地区有着广泛的人才吸引力与技术流动性,建有华为云计算异构系统关键技术工程实验室、中山大学大数据与计算智能研究所、无人系统研究所、深圳人工智能与大数据研究院、香港中文大学智能系统实验室;云从科技—中国民航共建智慧民航研究中心(广州)、大疆智能无人系统开放创新平台等一大批校企研发机构。
①数据来源:深圳市人工智能行业协会。其中,企业专利申请数量:广东28.32万件,北京10.28万件,上海6.13万件,浙江3.67万件
三、我国人工智能促进经济高质量发展存在的主要问题
(一)关键核心技术缺乏与产业话语权缺失导致核心产业低质扩张
在当前世界局势中,人工智能被视为经济社会发展重要的新增长点,各国都十分重视人工智能技术的发展,国内人工智能企业与高校科研院所在国际市场中极易被打上“中国”的标签,并遭遇一些来自非市场力量的压迫。中国目前在创新优化级、工程实现级的人工智能技术研发工作取得了巨大成就,但在颠覆性理论突破与阶跃性模型创新方面还有所不足,中国还未能掌握人工智能热点方向的决定权,技术标准、数据标准体系不得不长期对标国际,研发重点跟随国际脚步,缺失人工智能领域技术研发话语权。同时,在关键技术、芯片制造、架构设计、底层平台方面中国还面临着发达国家“卡脖子”的局面。人工智能促进经济高质量发展的路径之一是通过其核心产业的扩张增长,在核心技术话语权缺失的情况下,中国将难以发挥核心产业的扩张效应,甚至长期陷入“大而不强”的被动局面。
(二)产学研合作存在“梗阻”与要素流通不畅导致融合产业低效赋能
人工智能对融合产业的赋能过程涉及特定产业专业与人工智能专业的交叉复合知识,更需要研发端长期布局,熟悉特定产业的运行架构与关键症结。然而,目前中国不同人工智能主体的研发重心存在偏差,高校科研院所相对重视人工智能理论开发与模型训练问题,而人工智能企业更重视场景应用与技术服务,产业端与研发端之间的界限依旧牢固,市场激励基础理论研发与基础研发促进产业升级的双向路径不通畅,技术、人才、制度、数据等要素难以自由流动,核心产业与融合产业之间的产品服务流与信息数据流渠道受阻,原本的动态融合逻辑被打破,人工智能对融合产业赋能成本高、效率低、效果差,无法充分发挥对经济高质量发展的交互促进效应。
(三)平台垄断问题与溢出效应不足导致潜在关联产业低迷活化
在人工智能时代,学习算法不断优化,模型算力持续进步,数据的经济价值将得到前所未有的深度挖掘和充分释放,为海量用户数据提供了完美的商业可能。同时,人工智能技术依赖数据进行正反馈循环发展,行业自然倾向于垄断,当人工智能头部平台公司形成一定的市场势力,市场机制将很难阻止其利用“技术+市场势力”的循环进一步深化垄断格局。人工智能产业主体通过数据垄断而限制、排除竞争的行为,将成为反垄断法面临的新时代课题[20]。当前,我国数字经济平台垄断问题已经有所凸显,以滴滴为代表的一批数字平台被国家互联网信息办公室核实存在严重违法违规收集使用个人信息问题,要求下架整改[21-22]。人工智能行业存在的垄断问题对行业发挥溢出效应有着严重的阻碍,行业活力被抑制,导致人工智能对于潜在关联产业的活化效应严重释放不足。
(四)相关社会伦理道德规范缺失,隐私保护和安全性问题突出
与发达国家相比,我国还缺乏与人工智能相关的社会伦理和法律规范系统研究和整体规划,对于人工智能使用和赋能造成的潜在风险、隐私保护,缺乏事前预见性和事后应急处置方案,特别是在社会治理领域的应用,容易诱发隐私侵犯、侵入式检测事件,甚至诱发危及社会稳定和政权安全的严重群体性社会问题。人工智能法律法规有待完善,行业发展尚需伦理准则规范,法律地位不明确、算法不透明、危险决策不可解释等一系列风险亟须解决。
此外,我国还存在开源软件使用不当导致的知识产权侵权风险、强制开源导致企业核心技术泄露风险(如使用GPL等许可协议,要求引用/修改/衍生代码的开源/免费使用,不允许修改/衍生的代码作为闭源商业软件发布和销售)、不遵守许可协议造成合同违约风险,以及多个开源许可证不兼容风险等一系列问题。在开源软件使用不当方面,我国人工智能领域在国际上声誉受损和被经济制裁的案例时有发生。
(五)相关人才短缺且结构不合理,难以支撑实体经济高质量发展
1.高端人才总量偏少。知名AI领域机构ElementAI发布的2020年《全球AI人才流动报告》称,尽管中国在人工智能处于世界前列,论文数量排名也居于全球第二位置,但中国人工智能人才储备表现不佳,在全球AI人才库中,美国拥有188300人,再次位列第一,印度拥有86213人,居次席,中国拥有AI人才数量仅为22191人,排在第四位;并且,据测算,2014—2019年,中国人工智能高端人才呈现越来越严重的净流出状态[23]。
2.人才结构不合理。我国人工智能人才主要集中在应用领域,而美国则主要集中在芯片、机器学习、计算机视觉等重要基础技术领域。我国目前缺乏具备人工智能和实体经济交叉知识体系的复合型人才,但高校专业设置落后于科技发展实际,人工智能专业教学存在缺乏实践、领域宽泛、知识陈旧、碎片化严重等问题。产业界则存在人才使用和激励机制不完善的问题,对如何评价科技人员贡献缺乏有效办法,人工智能技术人员在选拔、任用、培养、使用上缺乏有效激励办法。
四、对策建议
(一)推进基础理论研究和关键共性技术开发,提高科技自立自强能力
针对核心产业低质扩张问题,充分发挥新型举国体制优势,集合产学研多方优势,加大在机器学习、智能计算、核心算法、基础软硬件等人工智能前沿理论和关键核心技术研发应用的投入力度,坚持创新在经济高质量发展中的核心地位,增强科技自主创新能力,尽快在基础理论研究和关键共性技术获得突破,解决一批“卡脖子”技术问题,提高人工智能领域科技自立自强能力。
针对融合产业低效赋能问题,大力推进以企业为主体、“政产学研用”相结合的开放式协同创新,提高创新生态系统开放性、协同性。加强人工智能相关的企业国家重点实验室建设,支持企业与高校、科研院所等共建研发机构和联合实验室,打破产学研壁垒,进一步疏通二者之间技术、人才、制度、数据的流动路径,加强面向人工智能和行业共性问题的应用基础研究,联合开展关键共性技术攻关。鼓励不同产业领域对人工智能技术的创新应用,加快人工智能应用覆盖速度,拓展人工智能应用赋能边界。鼓励实体经济与人工智能的深度融合,推进融合产业动态高质量发展。
(二)优化行业发展环境,促进产业生态良性发展
人工智能与实体经济深度融合需要优化发展环境,包括完善的市场建设、公平的竞争环境、良好的商业秩序、政府规范合理的行为及其激励与保障下企业对于技术创新与产业创新的追求(而非对于寻租及政策套利活动的追求)。
在反垄断方面,贯彻落实《中华人民共和国反垄断法》和《国务院反垄断委员会关于平台经济领域的反垄断指南》,强化对数字经济平台企业反垄断执法,坚决制止平台企业利用算法歧视、算法操纵、数据垄断、侵犯隐私等手段,侵害消费者利益,实施排除、限制竞争的行为。
在政策环境方面,推进普惠性产业政策转型,由当前“政府选择+政策支持”的产业政策,与“产业规划—项目选择—政策支持—效果评估”的政策实施方式,转变为“环境建设+市场选择”的产业政策,与“产业规划—环境建设—体制机制保障—企业行为—市场选择”的政策实施方式[24]。
在市场环境方面,完善全国统一、竞争有序的市场体系建设,加大知识产权保护力度,防范打击人工智能领域知识产权侵权行为。建立完善人工智能知识产权交易制度,促进人工智能技术在产业间的扩散。完善资本市场支撑环境,优化人工智能与实体经济融合的金融市场支持。完善区域间技术、人才、资本流动环境,积极引导中西部地区重视人工智能产业发展,解决地域发展不均衡问题。
(三)完善相关法律法规和伦理规范制度,促进人工智能“科技向善”
新一代人工智能技术是一种数据驱动型技术,存在着技术上鼓励数据的全社会流动共享与安全上要求个人加强隐私信息保护之间的深层矛盾。数据的高质量、大规模、可得性关乎人工智能发展的成败,因此在数据安全性方面,需要政府重视相关法律法规体系建设,行业协会加快制定行业标准规范,企业内部建设并严格执行数据泄露惩罚机制。
贯彻落实《中华人民共和国网络安全法》《中华人民共和国数据安全法》,呼吁尽快出台《中华人民共和国个人信息保护法》。借鉴欧盟《通用数据保护条例》等在数据安全和隐私保护的先进经验,结合实际情况出台相关实施细则和配套政策,在确保数据安全和个人隐私、企业秘密前提下,鼓励数据互联互通。组织社会学家、法律专家、技术专家针对相关问题展开合作,全社会广泛参与讨论,制定完善相关法律法规和伦理规范,规范人工智能信息收集、保存、使用、共享、转让、信息披露等活动,实现信息安全、隐私权与数据可得性之间的平衡,确保人工智能“科技向善”。
(四)构建高素质人才培养体系和人才流动机制,促进包容性均衡发展
人工智能核心产业扩张增长过程的专业性与融合产业赋能增长过程的复合性对相关人才的数量、质量提出了高要求。中国需要在鼓励高校设立人工智能专业的同时,鼓励设立“人工智能+”复合专业,培养融合专业人才。基于多学科构建人工智能人才协同培育体系,加强优势专业校际交流,深化教育科研改革,加大交叉人才培养力度,增加人工智能人才储备。
我国人工智能发展水平高的机构和企业主要集中在东部地区,中西部人工智能研发和应用水平相对较低,区域发展不平衡问题较为突出。中西部地区应以大力发展数字基础设施为契机,完善地区营商环境和知识产权保护制度,构建灵活顺畅的人才流动机制,通过建立人工智能专项发展基金池等办法,吸引东部人才到中西部地区创业发展,提升中西部地区人工智能发展水平。
拓宽国际人才交流和招揽渠道,扶持人工智能、机器学习,以及数字经济所需的数据分析、云端计算等领域的人才引进及培养。鼓励高校、企业相关团队赴国外顶尖大学及研究机构合作交流人工智能及机器学习等最新技术。完善外籍高层次人认定标准,畅通人才申请永久居留的市场化渠道,为外籍高层次数字科技人才在华工作、生活提供更多便利。完善国际化人才培养模式,加强数字科技人才国际交流合作,推进职业资格国际互认。
(五)加快人工智能创新应用先导区和创新发展试验区建设,推进改革试点和应用示范
目前,工信部已经在上海(浦东新区)、深圳、济南—青岛、北京、天津(滨海新区)、杭州、广州、成都设立了8个国家人工智能创新应用先导区,这是部省协同推进人工智能和实体经济深度融合的重要举措。科技部则分别发函支持北京、上海、合肥、杭州、深圳、天津、济南、西安、成都、重庆、广州、武汉、苏州、长沙等城市和浙江省德清县,建设国家新一代人工智能创新发展试验区,国家新一代人工智能创新发展试验区已达14市1县。
要以创建国家人工智能创新应用先导区和国家新一代人工智能创新发展试验区为契机和载体,发挥先导区和试验区在技术原创、产业生态、人才基础、发展环境等多重优势,不断拓展应用场景,促进人工智能与制造业深度融合,促进人工智能与核心产业、融合产业、潜在关联产业更多融合发展。与此同时,探索新一代人工智能发展新路径新机制,形成可复制、可推广的经验,不断挖掘机制改革“深度”,提升创新能力“高度”,加快应用落地“速度”,增进产业集聚“热度”,导出经验、模式、产品及服务,为经济高质量发展提供有力支撑。
参考文献
[1]姜国睿,陈晖,王姝歆.人工智能的发展历程与研究初探[J].计算机时代,2020(9):7-10,16.
[2]习近平主持中共中央政治局第九次集体学习并讲话[EB/OL].(2018-10-31)[2021-07-07].http://www.gov.cn/xinwen/2018-10/31/content_5336251.htm?cid=303.
[3]蔡跃洲,张钧南.信息通信技术对中国经济增长的替代效应与渗透效应[J].经济研究,2015(12):100-114.
[4]蔡跃洲,陈楠.新技术革命下人工智能与高质量增长、高质量就业[J].数量经济技术经济研究,2019(5):3-22.
[5]HolfordWD.Thefutureofhumancreativeknowledgeworkwithinthedigitaleconomy[J].Futures,2019(105):143-154.
[6]曹静,周亚林.人工智能对经济的影响研究进展[J].经济学动态,2018(1):103-115.
[7]郭晗.人工智能培育中国经济发展新动能的理论逻辑与实践路径[J].西北大学学报(哲学社会科学版),2019(5):21-27.
[8]师博.人工智能助推经济高质量发展的机理诠释[J].改革,2020(1):30-38.
[9]任保平,宋文月.新一代人工智能和实体经济深度融合促进高质量发展的效应与路径[J].西北大学学报(哲学社会科学版),2019(5):6-13.
[10]罗以洪.大数据人工智能区块链等ICT促进数字经济高质量发展机理探析[J].贵州社会科学,2019(12):122-132.
[11]赵春江:加快数字技术应用于农业农村[N].农民日报,2020-12-19(03).
[12]张勋,万广华,张佳佳,等.数字经济、普惠金融与包容性增长[J].经济研究,2019(8):71-86.
[13]赫尔南多·德·索托.资本的秘密[M].于海生,译.北京:华夏出版社,2012.
[14]邱泽奇,张樹沁,刘世定,等.从数字鸿沟到红利差异——互联网资本的视角[J].中国社会科学,2016(10):93-115,203-204.
[15][18]深圳市人工智能行业协会发布《2021人工智能发展白皮书》[EB/OL].(2021-05-28)[2021-06-20].https://www.sohu.com/a/469049593_121123919.
[16]《中国新一代人工智能发展报告2019》发布——我国人工智能论文发文量全球领先[EB/OL](.05-26)[2021-06-08].https://baijiahao.baidu.com/s?id=1634542618791206141&wfr=spider&for=pc.2019-
[17]《中国新一代人工智能发展报告2020》发布[EB/OL].(2020-10-22)[2021-06-14].https://baijiahao.baidu.com/s?id=1681229567542644309&wfr=spider&for=pc.
[19]《人工智能核心技术产业白皮书》发布[EB/OL].(2021-04-21)[2021-06-20].https://www.sohu.com/a/462167290_120056153.
[20]吴汉东.人工智能的数据垄断与反垄断法的时代使命[N].光明日报,2018-07-03(11).
[21]关于下架“滴滴出行”App的通报[EB/OL].(2021-07-04)[2021-07-11].http://www.cac.gov.cn/2021-07/04/c_1627016782176163.htm.
[22]关于下架“滴滴企业版”等25款App的通报[EB/OL].(2021-07-09)[2021-07-11].http://www.cac.gov.cn/2021-07/09/c_1627415870012872.htm.
[23]2020全球AI人才报告:全球AI人才突破47万,中国仅有2万[EB/OL].(2021-03-25)[2021-07-09].https://www.sohu.com/a/457292666_120129517.
[24]高煜.我国经济高质量发展中人工智能与制造业深度融合的智能化模式选择[J].西北大学学报(哲学社会科学版),2019(5):28-35.
方澳,中国社会科学院大学硕士研究生,研究方向为数字经济、政府政策。
郭朝先,方澳.人工智能促进经济高质量发展:机理、问题与对策[J/OL].广西社会科学:1-10[2021-07-26].http://kns.cnki.net/kcms/detail/45.1185.C.20210723.1327.002.html.
人工智能的伦理挑战与科学应对
【光明青年论坛】
编者按
2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。
与谈人
彭家锋 中国人民大学哲学院博士生
虞昊 华东师范大学政治与国际关系学院博士生
邓玉龙 南京师范大学哲学系博士生
主持人
刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员
1.机遇与挑战并存的人工智能
主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?
彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。
虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。
邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。
主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?
虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。
邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。
彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。
2.人工智能科技竞争的“伦理赛道”
主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?
彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。
虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。
邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。
主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?
彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。
邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。
3.人工智能安全与人的全面发展
主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?
彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。
虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。
邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。
主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?
彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。
虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。
邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。
(本版编辑张颖天整理)
《光明日报》(2023年04月10日 15版)
[责编:曾震宇]UNESCO第41届大会审议通过《人工智能伦理问题建议书》
编者按:2021年11月24日,在刚刚闭幕的联合国教科文组织大会第41届会议上,诞生了《人工智能伦理问题建议书》。笔者尤为振奋,不光因为我们在2020年7月参与建言、向联合国教科文组织提交的关于“环境、生态系统、生物多样性应写入人工智能伦理”的建议几乎被全面采纳;也因为,这是笔者看到过的所有的关于人工智能伦理文本中最好、也最全面的一个文本。
然而,目前我国对其的报道还是非常有限。尽管这份建议书是在11月24日的会议上通过的,国内当天几乎罕有报道(中文世界就连对联合国教科文组织第41届大会的报道也是很少的)。次日,也就是11月25日,UNESCO在巴黎在举行新闻发布会,介绍正式通过的这个首份人工智能伦理问题全球性协议,然后11月26日中国新闻网、新华社、央视等国内主流媒体才有简短的报道。截至2021年11月27日晚上、也就是这份建议书通过后的72小时之后,小编看到的有限的所有的中文报道都非常简短。而事实上,这份建议书文本非常全面,对于全球的人工智能的发展影响将是极为深远的。
从内容和词频上看,2021年文本大量提升了生态环境相关的内容。笔者盘点了一番:“生物多样性”出现2次(去年草案初稿中出现0次),“生态系统”出现31次(去年草案初稿中约5次);“环境”一词出现约59次(去年草案初稿中出现23次);“动物福利”出现1次(之前0次);“碳足迹”出现2次。可以说,对比2021年的文本和2020年的文本,我们绿会的建议几乎得到了较为全面的采纳。
此外,本文尤其强调了“人工智能系统的整个生命周期”,笔者认为,这一点尤为值得重视。在全文中出现51次。所谓人工智能系统整个生命周期,该文件将其定义为“从研究、设计、开发到配置和使用等各阶段,包括维护、运行、交易、融资、监测和评估、验证、使用终止、拆卸和终结。”
另外,难能可贵的一点是,该建议书明确表示,并不试图对人工智能作出唯一的定义。它认为,这种定义需要随着技术的发展与时俱进。因此,该文本旨在探讨人工智能系统中具有核心伦理意义的特征。笔者注意到,此次会议决定,会员国关于其为实施《人工智能伦理问题建议书》所采取措施的报告周期为四年一次。也就是说,在联合国教科文组织大会43届会议(四年后)上,将讨论《人工智能伦理问题建议书》实施情况的第一份综合报告。
为了让国内同胞们能尽快看到文本,笔者从联合国教科文组织的官网发布的提交给41届大会审议的材料中提取了中文文字版。相信这份文件对我国人工智能学界、政策制定者、产业界都有不小的参考价值,绿会融媒在此中文首发。事实上这篇文章的排版花了小编超过四个小时,不光是排版较难、也因花了点世界对其中文文本中的个别问题译法进行了查证。以下文本来自于UNESCO官网,全文约27000字。分享如下,供读者参考。
编者按/王豁审/绿会国际部 编/angel
人工智能伦理问题建议书。图源/unesco
《人工智能伦理问题建议书》草案文本
(注:已在联合国教科文组织第41届大会上获得会员国通过)
序言
联合国教育、科学及文化组织(教科文组织)大会于2021年11月9日至24日在巴黎召开第四十一届会议,
认识到人工智能(AI)从正负两方面对社会、环境、生态系统和人类生活包括人类思想具有深刻而动态的影响,部分原因在于人工智能的使用以新的方式影响着人类的思维、互动和决策,并且波及到教育、人文科学、社会科学和自然科学、文化、传播和信息,
忆及教科文组织根据《组织法》,力求通过教育、科学、文化以及传播和信息促进各国间之合作,对和平与安全作出贡献,以增进对正义、法治及所确认之世界人民均享人权与基本自由之普遍尊重,
深信在此提出的建议书,作为以国际法为依据、采用全球方法制定且注重人的尊严和人权以及性别平等、社会和经济正义与发展、身心健康、多样性、互联性、包容性、环境和生态系统保护的准则性文书,可以引导人工智能技术向着负责任的方向发展,
遵循《联合国宪章》的宗旨和原则,
考虑到人工智能技术可以对人类大有助益并惠及所有国家,但也会引发根本性的伦理关切,例如:人工智能技术可能内嵌并加剧偏见,可能导致歧视、不平等、数字鸿沟和排斥,并对文化、社会和生物多样性构成威胁,造成社会或经济鸿沟;算法的工作方式和算法训练数据应具有透明度和可理解性;人工智能技术对于多方面的潜在影响,包括但不限于人的尊严、人权和基本自由、性别平等、民主、社会、经济、政治和文化进程、科学和工程实践、动物福利以及环境和生态系统,
又认识到人工智能技术会加深世界各地国家内部和国家之间现有的鸿沟和不平等,必须维护正义、信任和公平,以便在公平获取人工智能技术、享受这些技术带来的惠益和避免受其负面影响方面不让任何国家和任何人掉队,同时认识到各国国情不同,并尊重一部分人不参与所有技术发展的意愿,
意识到所有国家都正值信息和通信技术及人工智能技术使用的加速期,对于媒体与信息素养的需求日益增长,且数字经济带来了重大的社会、经济和环境挑战以及惠益共享的机会,对于中低收入国家(LMIC)——包括但不限于最不发达国家(LDC)、内陆发展中国家(LLDC)和小岛屿发展中国家(SIDS)而言尤为如此,需要承认、保护和促进本土文化、价值观和知识,以发展可持续的数字经济,
还认识到人工智能技术具备有益于环境和生态系统的潜能,要实现这些惠益,不应忽视而是要去应对其对环境和生态系统的潜在危害和负面影响,
注意到应对风险和伦理关切的努力不应妨碍创新和发展,而是应提供新的机会,激励合乎伦理的研究和创新,使人工智能技术立足于人权和基本自由、价值观和原则以及关于道义和伦理的思考,
又忆及教科文组织大会在2019年11月第四十届会议上通过了第40C/37号决议,授权总干事“以建议书的形式编制一份关于人工智能伦理问题的国际准则性文书”,提交2021年大会第四十一届会议,
认识到人工智能技术的发展需要相应提高数据、媒体与信息素养,并增加获取独立、多元、可信信息来源的机会,包括努力减少错误信息、虚假信息和仇恨言论的风险以及滥用个人数据造成的伤害,
认为关于人工智能技术及其社会影响的规范框架应建立在共识和共同目标的基础上,以国际和国家法律框架、人权和基本自由、伦理、获取数据、信息和知识的需求、研究和创新自由、人类福祉、环境和生态系统福祉为依据,将伦理价值观和原则与同人工智能技术有关的挑战和机遇联系起来,
又认识到伦理价值观和原则可以通过发挥指引作用,帮助制定和实施基于权利的政策措施和法律规范,以期加快技术发展步伐,
又深信全球公认的、充分尊重国际法特别是人权法的人工智能技术伦理标准可以在世界各地制定人工智能相关规范方面起到关键作用,
铭记《世界人权宣言》(1948年);国际人权框架文书,包括《关于难民地位的公约》(1951年)、《就业和职业歧视公约》(1958年)、《消除一切形式种族歧视国际公约》(1965年)、《公民及政治权利国际公约》(1966年)、《经济社会文化权利国际公约》(1966年)、《消除对妇女一切形式歧视公约》(1979年)、《儿童权利公约》(1989年)和《残疾人权利公约》(2006年);《反对教育歧视公约》(1960年);《保护和促进文化表现形式多样性公约》(2005年);以及其他一切相关国际文书、建议书和宣言,又注意到《联合国发展权利宣言》(1986年);《当代人对后代人的责任宣言》(1997年);《世界生物伦理与人权宣言》(2005年);《联合国土著人民权利宣言》(2007年);2014年联合国大会关于信息社会世界峰会审查的决议(A/RES/70/125)(2015年);联合国大会关于“变革我们的世界:2030年可持续发展议程”的决议(A/RES/70/1)(2015年);《关于保存和获取包括数字遗产在内的文献遗产的建议书》(2015年);《与气候变化有关的伦理原则宣言》(2017年);《关于科学和科学研究人员的建议书》(2017年);互联网普遍性指标(2018年获得教科文组织国际传播发展计划认可),包括立足人权、开放、人人可及和多利益攸关方参与原则(2015年获得教科文组织大会认可);人权理事会关于“数字时代的隐私权”的决议(A/HRC/RES/42/15)(2019年);以及人权理事会关于“新兴数字技术与人权”的决议(A/HRC/RES/41/11)(2019年),
强调必须特别关注中低收入国家,包括但不限于最不发达国家、内陆发展中国家和小岛屿发展中国家,这些国家具备能力,但在人工智能伦理问题辩论中的代表性不足,由此引发了对于地方知识、文化多元化、价值体系以及应对人工智能技术的正负两方面影响需要实现全球公平的要求受到忽视的关切,
又意识到在人工智能技术的伦理和监管方面,目前存在许多国家政策以及由联合国相关实体、政府间组织(包括地区组织)和由私营部门、专业组织、非政府组织和科学界制定的其他框架和倡议,
还深信人工智能技术可以带来重大惠益,但实现这些惠益也会加剧围绕创新产生的矛盾冲突、知识和技术获取不对称(包括使公众参与人工智能相关议题的能力受限的数字和公民素养赤字)以及信息获取障碍、能力亦即人员和机构能力差距、技术创新获取障碍、缺乏适当的实体和数字基础设施以及监管框架(包括与数据有关的基础设施和监管框架)的问题,所有这些问题都需要解决,
强调需要加强全球合作与团结,包括通过多边主义,以促进公平获取人工智能技术,应对人工智能技术给文化和伦理体系的多样性和互联性带来的挑战,减少可能的滥用,充分发挥人工智能可能给各个领域特别是发展领域带来的潜能,确保各国人工智能战略以伦理原则为指导,
充分考虑到人工智能技术的快速发展对以合乎伦理的方式应用和治理人工智能技术以及对尊重和保护文化多样性提出了挑战,并有可能扰乱地方和地区的伦理标准和价值观,
1.通过本人工智能伦理问题建议书;
2.建议会员国在自愿基础上适用本建议书的各项规定,特别是根据各自国家的宪法实践和治理结构采取适当步骤,包括必要的立法或其他措施,依照包括国际人权法在内的国际法,使建议书的原则和规范在本国管辖范围内生效;
3.又建议会员国动员包括工商企业在内的所有利益攸关方,确保他们在实施本建议书方面发挥各自的作用;并提请涉及人工智能技术的管理部门、机构、研究和学术组织、公共、私营和民间社会机构和组织注意本建议书,使人工智能技术的开发和应用做到以健全的科学研究以及伦理分析和评估作为指导。
一、适用范围
1.本建议书述及与人工智能领域有关且属于教科文组织职责范围之内的伦理问题。建议书以能指导社会负责任地应对人工智能技术对人类、社会、环境和生态系统产生的已知和未知影响并相互依存的价值观、原则和行动构成的不断发展的整体、全面和多元文化框架为基础,将人工智能伦理作为一种系统性规范考量,并为社会接受或拒绝人工智能技术提供依据。
建议书将伦理视为对人工智能技术进行规范性评估和指导的动态基础,以人的尊严、福祉和防止损害为导向,并立足于科技伦理。
2.本建议书无意对人工智能作出唯一的定义,这种定义需要随着技术的发展与时俱进。
建议书旨在探讨人工智能系统中具有核心伦理意义的特征。因此,本建议书将人工智能系统视为有能力以类似于智能行为的方式处理数据和信息的系统,通常包括推理、学习、感知、预测、规划或控制等方面。这一方法有三个重要因素:
(a)人工智能系统是整合模型和算法的信息处理技术,这些模型和算法能够生成学习和执行认知任务的能力,从而在物质环境和虚拟环境中实现预测和决策等结果。
在设计上,人工智能系统借助知识建模和知识表达,通过对数据的利用和对关联性的计算,可以在不同程度上实现自主运行。人工智能系统可以包含若干种方法,包括但不限于:
(i)机器学习,包括深度学习和强化学习;
(ii)机器推理,包括规划、调度、知识表达和推理、搜索和优化。
人工智能系统可用于信息物理系统,包括物联网、机器人系统、社交机器人和涉及控制、感知及处理传感器所收集数据的人机交互以及人工智能系统工作环境中执行器的操作。
(b)与人工智能系统有关的伦理问题涉及人工智能系统生命周期的各个阶段,此处系指从研究、设计、开发到配置和使用等各阶段,包括维护、运行、交易、融资、监测和评估、验证、使用终止、拆卸和终结。此外,人工智能行为者可以定义为在人工智能系统生命周期内至少参与一个阶段的任何行为者,可指自然人和法人,例如研究人员、程序员、工程师、数据科学家、终端用户、工商企业、大学和公私实体等。
(c)人工智能系统引发了新型伦理问题,包括但不限于其对决策、就业和劳动、社交、卫生保健、教育、媒体、信息获取、数字鸿沟、个人数据和消费者保护、环境、民主、法治、安全和治安、双重用途、人权和基本自由(包括表达自由、隐私和非歧视)的影响。此外,人工智能算法可能复制和加深现有的偏见,从而加剧已有的各种形式歧视、偏见和成见,由此产生新的伦理挑战。其中一些问题与人工智能系统能够完成此前只有生物才能完成、甚至在有些情况下只有人类才能完成的任务有关。这些特点使得人工智能系统在人类实践和社会中以及在与环境和生态系统的关系中,可以起到意义深远的新作用,为儿童和青年的成长、培养对于世界和自身的认识、批判性地认识媒体和信息以及学会作出决定创造了新的环境。
从长远看,人工智能系统可能挑战人类特有的对于经验和能动作用的感知,在人类的自我认知、社会、文化和环境的互动、自主性、能动性、价值和尊严等方面引发更多关切。
3.秉承教科文组织世界科学知识与技术伦理委员会(COMEST)在2019年《人工智能伦理问题初步研究》中的分析,本建议书特别关注人工智能系统与教育、科学、文化、传播和信息等教科文组织核心领域有关的广泛伦理影响:
(a)教育,这是因为鉴于对劳动力市场、就业能力和公民参与的影响,生活在数字化社会需要新的教育实践、伦理反思、批判性思维、负责任的设计实践和新的技能。
(b)科学,系指最广泛意义上的科学,包括从自然科学、医学到社会科学和人文科学等所有学术领域,这是由于人工智能技术带来了新的研究能力和方法,影响到我们关于科学认识和解释的观念,为决策创建了新的基础。
(c)文化特性和多样性,这是由于人工智能技术可以丰富文化和创意产业,但也会导致文化内容的供应、数据、市场和收入更多地集中在少数行为者手中,可能对语言、媒体、文化表现形式、参与和平等的多样性和多元化产生负面影响。
(d)传播和信息,这是由于人工智能技术在处理、组织和提供信息方面起到日益重要的作用;很多现象引发了与信息获取、虚假信息、错误信息、仇恨言论、新型社会叙事兴起、歧视、表达自由、隐私、媒体与信息素养等有关的问题,自动化新闻、通过算法提供新闻、对社交媒体和搜索引擎上的内容进行审核和策管只是其中几个实例。
4.本建议书面向会员国,会员国既是人工智能行为者,又是负责制定人工智能系统整个生命周期的法律和监管框架并促进企业责任的管理部门。此外,建议书为贯穿人工智能系统生命周期的伦理影响评估奠定了基础,从而为包括公共和私营部门在内的所有人工智能行为者提供伦理指南。
二、宗旨和目标
5.本建议书旨在提供基础,让人工智能系统可以造福人类、个人、社会、环境和生态系统,同时防止危害。它还旨在促进和平利用人工智能系统。
6.本建议书的目的是在全球现有人工智能伦理框架之外,再提供一部全球公认的规范性文书,不仅注重阐明价值观和原则,而且着力于通过具体的政策建议切实落实这些价值观和原则,同时着重强调包容、性别平等以及环境和生态系统保护等问题。
7.由于与人工智能有关的伦理问题十分复杂,需要国际、地区和国家各个层面和各个部门的众多利益攸关方开展合作,故而本建议书的宗旨是让利益攸关方能够在全球和文化间对话的基础上共同承担责任。
8.本建议书的目标如下:
(a)依照国际法,提供一个由价值观、原则和行动构成的普遍框架,指导各国制定与人工智能有关的立法、政策或其他文书;
(b)指导个人、团体、社群、机构和私营公司的行动,确保将伦理规范嵌入人工智能系统生命周期的各个阶段;
(c)在人工智能系统生命周期的各个阶段保护、促进和尊重人权和基本自由、人的尊严和平等,包括性别平等;保障当代和后代的利益;保护环境、生物多样性和生态系统;尊重文化多样性;
(d)推动多利益攸关方、多学科和多元化对话和建立共识,讨论与人工智能系统有关的伦理问题;
(e)促进对人工智能领域进步和知识的公平获取以及惠益共享,特别关注包括最不发达国家、内陆发展中国家和小岛屿发展中国家在内的中低收入国家的需求和贡献。
三、价值观和原则
9.首先,人工智能系统生命周期的所有行为者都应尊重下文所载的价值观和原则,并在必要和适当的情况下,通过修订现行的和制定新的法律、法规和业务准则来促进这些价值观和原则。这必须遵守国际法,包括《联合国宪章》和会员国的人权义务,并应符合国际商定的社会、政治、环境、教育、科学和经济可持续性目标,例如联合国可持续发展目标(SDG)。
10.价值观作为催人奋进的理想,在制定政策措施和法律规范方面发挥着强大作用。下文概述的一系列价值观可以激发理想的行为并是确立原则的基础,而原则更为具体地阐述作为其根本的价值观,以便更易于在政策声明和行动中落实这些价值观。
11.下文概述的所有价值观和原则本身都是可取的,但在任何实际情况下这些价值观和原则之间都可能会有矛盾。在特定情况下,需要根据具体情况进行评估以管控潜在的矛盾,同时考虑到相称性原则并尊重人权和基本自由。在所有情况下,可能对人权和基本自由施加的任何限制均必须具有合法基础,而且必须合理、必要和相称,符合各国依据国际法所承担的义务。要做到明智而审慎地处理这些情况,通常需要与广泛的相关利益攸关方合作,同时利用社会对话以及伦理审议、尽职调查和影响评估。
12.人工智能系统生命周期的可信度和完整性对于确保人工智能技术造福人类、个人、社会、环境和生态系统并且体现出本建议书提出的价值观和原则至关重要。在采取适当措施降低风险时,人们应有充分理由相信人工智能系统能够带来个人利益和共享利益。具有可信度的一个基本必要条件是,人工智能系统在整个生命周期内都受到相关利益攸关方适当的全面监测。由于可信度是本文件所载各项原则得到落实的结果,本建议书提出的政策行动建议均旨在提升人工智能系统生命周期各个阶段的可信度。
3.1价值观
【尊重、保护和促进人权和基本自由以及人的尊严】
13.每个人与生俱来且不可侵犯的尊严构成了人权和基本自由这一普遍、不可分割、不可剥夺、相互依存又彼此相关的体系的基础。因此,尊重、保护和促进包括国际人权法在内的国际法确立的人的尊严和权利,在人工智能系统的整个生命周期内都至关重要。人的尊严系指承认每个人固有和平等的价值,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。
14.在人工智能系统生命周期的任何阶段,任何人或人类社群在身体、经济、社会、政治、文化或精神等任何方面,都不应受到损害或被迫居于从属地位。在人工智能系统的整个生命周期内,人类生活质量都应得到改善,而“生活质量”的定义只要不侵犯或践踏人权和基本自由或人的尊严,应由个人或群体来决定。
15.在人工智能系统的整个生命周期内,人会与人工智能系统展开互动,接受这些系统提供的帮助,例如照顾弱势者或处境脆弱群体,包括但不限于儿童、老年人、残障人士或病人。
在这一互动过程中绝不应将人物化,不应以其他方式损害人的尊严,也不应侵犯或践踏人权和基本自由。
16.在人工智能系统的整个生命周期内,必须尊重、保护和促进人权和基本自由。各国政府、私营部门、民间社会、国际组织、技术界和学术界在介入与人工智能系统生命周期有关的进程时,必须尊重人权文书和框架。新技术应为倡导、捍卫和行使人权提供新手段,而不是侵犯人权。
【环境和生态系统蓬勃发展】
17.应在人工智能系统的整个生命周期内确认、保护和促进环境和生态系统的蓬勃发展。
此外,环境和生态系统是关乎人类和其他生物能否享受人工智能进步所带来惠益的必要条件。
18.参与人工智能系统生命周期的所有行为者都必须遵守适用的国际法以及国内立法、标准和惯例,例如旨在保护和恢复环境和生态系统以及促进可持续发展的预防措施。这些行为者应减少人工智能系统对环境的影响,包括但不限于碳足迹,以确保将气候变化和环境风险因素降到最低,防止会加剧环境恶化和生态系统退化的对自然资源的不可持续开采、使用和转化。
【确保多样性和包容性】
19.在人工智能系统的整个生命周期内,应依照包括人权法在内的国际法,确保尊重、保护和促进多样性和包容性。为此,可以促进所有个人或群体的积极参与,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。
20.对于生活方式的选择范围、信仰、意见、表达形式或个人经验,包括对于人工智能系统的任选使用以及这些架构的共同设计,在人工智能系统生命周期的任何阶段都不应受到限制。
21.此外,应作出努力,包括开展国际合作,以克服并绝不利用影响到社区的缺乏必要技术基础设施、教育和技能以及法律框架的情况,特别是在中低收入国家、最不发达国家、内陆发展中国家和小岛屿发展中国家中。
【生活在和平、公正与互联的社会中】
22.人工智能行为者应为确保建设和平与公正的社会发挥参与和促进作用,这种社会的根基是惠及全民、符合人权和基本自由的相互关联的未来。在和平与公正的社会中生活的价值观表明,人工智能系统在整个生命周期内都有可能为所有生物之间及其与自然环境之间的相互关联作出贡献。
23.人与人之间相互联系的概念是基于这样一种认识,即每个人都属于一个更大的整体,当这个整体中的组成部分都能够繁荣兴旺时,整体才会蒸蒸日上。在和平、公正与互联的社会中生活,需要一种有机、直接、出自本能的团结纽带,其特点是不懈地寻求和平关系,倾向于在最广泛的意义上关爱他人和自然环境。
24.这一价值观要求在人工智能系统的整个生命周期内促进和平、包容与正义、公平和相互联系,人工智能系统生命周期的各种进程不得隔离或物化人类和社区或者削弱其自由、自主决策和安全,不得分裂个人和群体或使之相互对立,也不得威胁人类、其他生物和自然环境之间的共存。
3.2原则
【相称性和不损害】
25.应该认识到,人工智能技术本身并不一定能确保人类、环境和生态系统蓬勃发展。况且,与人工智能系统生命周期有关的任何进程都不得超出实现合法目的或目标所需的范围,并应切合具体情况。在有可能对人类、人权和基本自由、个别社区和整个社会,或者对环境和生态系统造成损害时,应确保落实风险评估程序并采取措施,以防止发生此类损害。
26.应从以下方面证明选择使用人工智能系统和选用哪种人工智能方法的合理性:(a)所选择的人工智能方法对于实现特定合法目标应该是适当的和相称的;(b)所选择的人工智能方法不得违背本文件提出的基本价值观,特别是其使用不得侵犯或践踏人权;(c)人工智能方法应切合具体情况,并应建立在严谨的科学基础上。在所涉决定具有不可逆转或难以逆转的影响或者在涉及生死抉择的情况下,应由人类作出最终决定。人工智能系统尤其不得用于社会评分或大规模监控目的。
【安全和安保】
27.在人工智能系统的整个生命周期内,应避免并解决、预防和消除意外伤害(安全风险)以及易受攻击的脆弱性(安保风险),确保人类、环境和生态系统的安全和安保。开发可持续和保护隐私的数据获取框架,促进利用优质数据更好地训练和验证人工智能模型,便可以实现有安全和安保保障的人工智能。
【公平和非歧视】
28.人工智能行为者应根据国际法,促进社会正义并保障一切形式的公平和非歧视。这意味着要采用包容性办法确保人工智能技术的惠益人人可得可及,同时又考虑到不同年龄组、文化体系、不同语言群体、残障人士、女童和妇女以及处境不利、边缘化和弱势群体或处境脆弱群体的具体需求。会员国应努力让包括地方社区在内的所有人都能够获取提供本地相关内容和服务且尊重多语言使用和文化多样性的人工智能系统。会员国应努力消除数字鸿沟,并确保对人工智能发展的包容性获取和参与。在国家层面,会员国应努力在人工智能系统生命周期的准入和参与问题上促进城乡之间的公平,以及所有人之间的公平,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何。在国际层面,技术最先进的国家有责任支持最落后的国家,确保共享人工智能技术的惠益,使得后者能够进入和参与人工智能系统生命周期,从而推动建设一个在信息、传播、文化、教育、研究、社会经济和政治稳定方面更加公平的世界秩序。
29.人工智能行为者应尽一切合理努力,在人工智能系统的整个生命周期内尽量减少和避免强化或固化带有歧视性或偏见的应用程序和结果,确保人工智能系统的公平。对于带有歧视性和偏见的算法决定,应提供有效的补救办法。
30.此外,在人工智能系统的整个生命周期内,需要解决国家内部和国家之间的数字和知识鸿沟,包括根据相关的国家、地区和国际法律框架解决技术和数据获取及获取质量方面的鸿沟,以及在连接性、知识和技能以及受影响社区的切实参与方面的鸿沟,以便让每个人都得到公平待遇。
【可持续性】
31.可持续社会的发展,有赖于在人类、社会、文化、经济和环境等方面实现一系列复杂的目标。人工智能技术的出现可能有利于可持续性目标,但也可能阻碍这些目标的实现,这取决于处在不同发展水平的国家如何应用人工智能技术。因此,在就人工智能技术对人类、社会、文化、经济和环境的影响开展持续评估时,应充分考虑到人工智能技术对于作为一套涉及多方面的动态目标(例如目前在联合国可持续发展目标中认定的目标)的可持续性的影响。
【隐私权和数据保护】
32.隐私权对于保护人的尊严、自主权和能动性不可或缺,在人工智能系统的整个生命周期内必须予以尊重、保护和促进。重要的是,人工智能系统所用数据的收集、使用、共享、归档和删除方式,必须符合国际法,契合本建议书提出的价值观和原则,同时遵守相关的国家、地区和国际法律框架。
33.应在国家或国际层面采用多利益攸关方办法,建立适当的数据保护框架和治理机制,将其置于司法系统保护之下,并在人工智能系统的整个生命周期内予以保障。数据保护框架和任何相关机制应参鉴有关收集、使用和披露个人数据以及数据主体行使其权利的国际数据保护原则和标准,同时确保对个人数据的处理具有合法的目的和有效的法律依据,包括取得知情同意。
34. 需要对算法系统开展充分的隐私影响评估,其中包括使用算法系统的社会和伦理考量以及通过设计方法对于隐私的创新使用。人工智能行为者需要确保他们对人工智能系统的设计和实施负责,以确保个人信息在人工智能系统的整个生命周期内受到保护。
【人类的监督和决定】
35.会员国应确保始终有可能将人工智能系统生命周期的任何阶段以及与人工智能系统有关的补救措施的伦理和法律责任归属于自然人或现有法人实体。因此,人类监督不仅指个人监督,在适当情况下也指范围广泛的公共监督。
36.在某些情况下,出于效率性的考虑,人类有时选择依赖人工智能系统,但是否在有限情形下出让控制权依然要由人类来决定,这是由于人类在决策和行动上可以借助人工智能系统,但人工智能系统永远无法取代人类的最终责任和问责。一般而言,生死攸关的决定不应让给人工智能系统来作。
【透明度和可解释性】
37.人工智能系统的透明度和可解释性往往是确保人权、基本自由和伦理原则得到尊重、保护和促进的必要先决条件。透明度是相关国家和国际责任制度有效运作的必要因素。缺乏透明度还可能削弱对根据人工智能系统产生的结果所作决定提出有效质疑的可能性,进而可能侵犯获得公平审判和有效补救的权利,并限制这些系统的合法使用领域。
38.在人工智能系统的整个生命周期内都需要努力提高人工智能系统(包括那些具有域外影响的系统)的透明度和可解释性,以支持民主治理,但透明度和可解释性的程度应始终切合具体情况并与其影响相当,因为可能需要在透明度和可解释性与隐私、安全和安保等其他原则之间取得平衡。在所涉决定系参考或依据人工智能算法作出的情况下,包括在所涉决定关乎民众安全和人权的情况下,民众应该被充分告知,并且在此类情况下有机会请求相关人工智能行为者或公共机构提供解释性信息。此外,对于影响其权利和自由的决定,个人应能够了解据以作出该决定的理由,并可以选择向能够审查和纠正该决定的私营公司或公共机构指定工作人员提出意见。对于由人工智能系统直接提供或协助提供的产品或服务,人工智能行为者应以适当和及时的方式告知用户。
39.从社会—技术角度来看,提高透明度有助于建设更加和平、公正、民主和包容的社会。提高透明度有利于开展公众监督,这可以减少腐败和歧视,还有助于发现和防止对人权产生的负面影响。透明度的目的是为相关对象提供适当的信息,以便他们理解和增进信任。具体到人工智能系统,透明度可以帮助人们了解人工智能系统各个阶段是如何按照该系统的具体环境和敏感度设定的。透明度还包括深入了解可以影响特定预测或决定的因素,以及了解是否具备适当的保证(例如安全或公平措施)。在存在会对人权产生不利影响的严重威胁的情况下,透明度要求可能还包括共享代码或数据集。
40. 可解释性是指让人工智能系统的结果可以理解,并提供阐释说明。人工智能系统的可解释性也指各个算法模块的输入、输出和性能的可解释性及其如何促成系统结果。因此,可解释性与透明度密切相关,结果和导致结果的子过程应以可理解和可追溯为目标,并且应切合具体情况。人工智能行为者应致力于确保开发出的算法是可以解释的。就对终端用户所产生的影响不是暂时的、容易逆转的或低风险的人工智能应用程序而言,应确保对导致所采取行动的任何决定作出有意义的解释,以便使这一结果被认为是透明的。
41.透明度和可解释性与适当的责任和问责措施以及人工智能系统的可信度密切相关。
【责任和问责】
42.人工智能行为者和会员国应根据国家法律和国际法,特别是会员国的人权义务,以及人工智能系统整个生命周期的伦理准则,包括在涉及其有效疆域和实际控制范围内的人工智能行为者方面,尊重、保护和促进人权和基本自由,并且还应促进对环境和生态系统的保护,同时承担各自的伦理和法律责任。以任何方式基于人工智能系统作出的决定和行动,其伦理责任和义务最终都应由人工智能行为者根据其在人工智能系统生命周期中的作用来承担。
43.应建立适当的监督、影响评估、审计和尽职调查机制,包括保护举报者,确保在人工智能系统的整个生命周期内对人工智能系统及其影响实施问责。技术和体制方面的设计都应确保人工智能系统(的运行)可审计和可追溯,特别是要应对与人权规范和标准之间的冲突以及对环境和生态系统福祉的威胁。
【认识和素养】
44.应通过由政府、政府间组织、民间社会、学术界、媒体、社区领袖和私营部门共同领导并顾及现有的语言、社会和文化多样性的开放且可获取的教育、公民参与、数字技能和人工智能伦理问题培训、媒体与信息素养及培训,促进公众对于人工智能技术和数据价值的认识和理解,确保公众的有效参与,让所有社会成员都能够就使用人工智能系统作出知情决定,避免受到不当影响。
45.了解人工智能系统的影响,应包括了解、借助以及促进人权和基本自由。这意味着在接触和理解人工智能系统之前,应首先了解人工智能系统对人权和权利获取的影响,以及对环境和生态系统的影响。
46.对数据的使用必须尊重国际法和国家主权。这意味着各国可根据国际法,对在其境内生成或经过其国境的数据进行监管,并采取措施,力争在依照国际法尊重隐私权以及其他人权规范和标准的基础上对数据进行有效监管,包括数据保护。
47.不同利益攸关方对人工智能系统整个生命周期的参与,是采取包容性办法开展人工智能治理、使惠益能够为所有人共享以及推动可持续发展的必要因素。利益攸关方包括但不限于政府、政府间组织、技术界、民间社会、研究人员和学术界、媒体、教育、政策制定者、私营公司、人权机构和平等机构、反歧视监测机构以及青年和儿童团体。应采用开放标准和互操作性原则,以促进协作。应采取措施,兼顾技术的变化和新利益攸关方群体的出现,并便于边缘化群体、社区和个人切实参与,同时酌情尊重土著人民对其数据的自我管理。
四、政策行动领域
48.以下政策领域所述的政策行动是对本建议书提出的价值观和原则的具体落实。主要行动是会员国出台有效措施,包括政策框架或机制等,并通过开展多种行动,例如鼓励所有利益攸关方根据包括联合国《工商企业与人权指导原则》在内的准则制定人权、法治、民主以及伦理影响评估和尽职调查工具,确保私营公司、学术和研究机构以及民间社会等其他利益攸关方遵守这些框架或机制。此类政策或机制的制定过程应包括所有利益攸关方并应考虑到各会员国的具体情况和优先事项。教科文组织可以作为合作伙伴,支持会员国制定、监测和评估政策机制。
49.教科文组织认识到,各会员国在科学、技术、经济、教育、法律、规范、基础设施、社会、文化和其他方面,处于实施本建议书的不同准备阶段。需要指出的是,这里的“准备”是一种动态。因此,为切实落实本建议书,教科文组织将:(1)制定准备状态评估方法,协助有关会员国确定其准备进程各个方面在特定时刻的所处状态;(2)确保支持有关会员国制定教科文组织人工智能技术伦理影响评估(EIA)方法,分享最佳做法、评估准则、其他机制和分析工作。
【政策领域1:伦理影响评估】
50.会员国应出台影响评估(例如伦理影响评估)框架,以确定和评估人工智能系统的惠益、关切和风险,并酌情出台预防、减轻和监测风险的措施以及其他保障机制。此种影响评估应根据本建议书提出的价值观和原则,确定对人权和基本自由(特别是但不限于边缘化和弱势群体或处境脆弱群体的权利、劳工权利)、环境和生态系统产生的影响以及伦理和社会影响,并促进公民参与。
51.会员国和私营公司应建立尽职调查和监督机制,以确定、防止和减轻人工智能系统对尊重人权、法治和包容性社会产生的影响,并说明如何处理这些影响。会员国还应能够评估人工智能系统对贫困问题产生的社会经济影响,确保人工智能技术在目前和未来的大规模应用不会加剧各国之间以及国内的贫富差距和数字鸿沟。为做到这一点,尤其应针对信息(包括私营实体掌握的涉及公共利益的信息)获取,实行可强制执行的透明度协议。会员国、私营公司和民间社会应调查基于人工智能的建议对人类决策自主权的社会学和心理学影响。对于经确认对人权构成潜在风险的人工智能系统,在投放市场之前,人工智能行为者应对其进行广泛测试,包括必要时,作为伦理影响评估的一部分,在真实世界的条件下进行测试。
52.会员国和工商企业应采取适当措施,监测人工智能系统生命周期的各个阶段,包括用于决策的算法的性能、数据以及参与这一过程的人工智能行为者,特别是在公共服务领域和需要与终端用户直接互动的领域,以配合开展伦理影响评估。人工智能系统评估的伦理方面应包含会员国的人权法义务。
53.各国政府应采用监管框架,其中特别针对公共管理部门提出人工智能系统伦理影响评估程序,以预测后果,减少风险,避免有害后果,促进公民参与并应对社会挑战。评估还应确立能够对算法、数据和设计流程加以评估并包括对人工智能系统的外部审查的适当监督机制,包括确定可审计性、可追溯性和可解释性。伦理影响评估应透明,并酌情向公众开放。
此类评估还应具备多学科、多利益攸关方、多文化、多元化和包容等特性。应要求公共管理部门引入适当的机制和工具,监测这些部门实施和/或部署的人工智能系统。
54.会员国应确保人工智能治理机制具备包容性、透明性、多学科、多边(包括跨界减轻损害和作出补救的可能性)和多利益攸关方等特性。特别是,治理应包括预测、有效保护、监测影响、执行和补救等方面。
55.会员国应通过实施有力的执行机制和补救行动,确保调查并补救人工智能系统造成的损害,从而确保人权和基本自由以及法治在数字世界与现实世界中同样得到尊重。此类机制和行动应包括私营公司和公营公司提供的补救机制。为此,应提升人工智能系统的可审计性和可追溯性。此外,会员国应加强履行这项承诺的机构能力,并应与研究人员和其他利益攸关方合作调查、防止并减少对于人工智能系统的潜在恶意使用。
56.鼓励会员国根据应用领域的敏感程度、对人权、环境和生态系统的预期影响以及本建议书提出的其他伦理考量,制定国家和地区人工智能战略,并考虑多种形式的柔性治理,例如人工智能系统认证机制和此类认证的相互承认。此类机制可以包括针对系统、数据以及伦理准则和伦理方面的程序要求的遵守情况开展不同层面的审计。另一方面,此类机制不得因行政负担过重而妨碍创新,或者让中小企业或初创企业、民间社会以及研究和科学组织处于不利地位。此类机制还应包括定期监测,在人工智能系统的整个生命周期内确保系统的稳健性、持续完整性和遵守伦理准则,必要时可要求重新认证。
57.会员国和公共管理部门应对现有和拟议的人工智能系统进行透明的自我评估,其中尤其应包括对采用人工智能是否适当进行评估,如果适当则应为确定适当的方法开展进一步评估,并评估采用这种方法是否会导致违反或滥用会员国的人权法义务,如果是则应禁止采用。
58.会员国应鼓励公共实体、私营公司和民间社会组织让不同利益攸关方参与其人工智能治理工作,并考虑增设独立的人工智能伦理干事岗位或某种其他机制,负责监督伦理影响评估、审计和持续监测工作,确保对于人工智能系统的伦理指导。鼓励会员国、私营公司和民间社会组织在教科文组织的支持下,创设独立的人工智能伦理干事网络,为国家、地区和国际层面的这一进程提供支持。
59.会员国应促进数字生态系统的发展和获取,以便在国家层面以合乎伦理和包容各方的方式发展人工智能系统,包括消除在人工智能系统生命周期准入方面的差距,同时推动国际合作。此类生态系统尤其包括数字技术和基础设施,在适当情况下还包括人工智能知识共享机制。
60.会员国应与国际组织、跨国公司、学术机构和民间社会合作建立机制,确保所有会员国积极参与关于人工智能治理的国际讨论,特别是中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。可以通过提供资金、确保平等的地区参与或任何其他机制来实现这一目标。此外,为确保人工智能论坛的包容性,会员国应为人工智能行为者的出入境提供便利,特别是中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家的行为者,以便其参加此类论坛。
61.修订现行的或制定新的有关人工智能系统的国家立法,必须遵守会员国的人权法义务,并在人工智能系统的整个生命周期内促进人权和基本自由。随着人工智能技术的发展,还应采取以下形式促进人权和基本自由:治理举措;关于人工智能系统的合作实践的良好范例;
国家及国际技术和方法准则。包括私营部门在内的各个部门在其关于人工智能系统的实践中必须利用现有的和新的文书以及本建议书,尊重、保护和促进人权和基本自由。
62.为执法、福利、就业、媒体和信息提供者、卫生保健和独立司法系统等对人权敏感的用途获取人工智能系统的会员国应建立机制,由独立的数据保护机关、行业监督机构和负责监督的公共机构等适当监督部门监测人工智能系统的社会和经济影响。
63.会员国应增强司法机构根据法治以及国际法和国际标准作出与人工智能系统有关决定(包括在其审议中使用人工智能系统的决定)的能力,同时确保坚持人类监督原则。司法机关如若使用人工智能系统,则需要有足够的保障措施,尤其要保障对基本人权的保护、法治、司法独立以及人类监督原则,并确保司法机关对人工智能系统的开发和使用值得信赖、以公共利益为导向且以人为本。
64.会员国应确保政府和多边组织在保障人工智能系统的安全和安保方面起到主导作用,并吸收多利益攸关方参与其中。具体而言,会员国、国际组织和其他相关机构应制定国际标准,列出可衡量和可检测的安全和透明度等级,以便能够客观评估人工智能系统并确定合规水平。此外,会员国和工商企业应对人工智能技术潜在安全和安保风险的战略研究提供持续支持,并应鼓励透明度、可解释性、包容和素养问题研究,在不同方面和不同层面(例如技术语言和自然语言)为这些领域投入更多资金。
65.会员国应实施政策,在人工智能系统的整个生命周期内确保人工智能行为者的行动符合国际人权法、标准和原则,同时充分考虑到当前的文化和社会多样性,包括地方习俗和宗教传统,并适当考虑到人权的优先性和普遍性。
66.会员国应建立机制,要求人工智能行为者披露并打击人工智能系统结果和数据中任何类型的陈规定型观念,无论是设计使然还是出于疏忽,确保人工智能系统的训练数据集不会助长文化、经济或社会不平等和偏见,不会散播虚假信息和错误信息,也不会干扰表达自由和信息获取。应特别关注数据匮乏地区。
67.会员国应实施政策,促进并提高人工智能开发团队和训练数据集的多样性和包容性,以反映其人口状况,确保人工智能技术及其惠益的平等获取,特别是对农村和城市地区的边缘化群体而言。
68.会员国应酌情制定、审查并调整监管框架,在人工智能系统生命周期的不同阶段对其内容和结果实施问责制和责任制。会员国应在必要时出台责任框架或澄清对现有框架的解释,确保为人工智能系统的结果和性能确定责任归属。此外,会员国在制定监管框架时,应特别考虑到最终责任和问责必须总是落实到自然人或法人身上,人工智能系统本身不应被赋予法人资格。为确保这一点,此类监管框架应符合人类监督原则,并确立着眼于人工智能系统生命周期不同阶段的人工智能行为者和技术流程的综合性方法。
69.为在空白领域确立规范或调整现有的法律框架,会员国应让所有人工智能行为者(包括但不限于研究人员、民间社会和执法部门的代表、保险公司、投资者、制造商、工程师、律师和用户)参与其中。这些规范可以发展成为最佳做法、法律和法规。进一步鼓励会员国采用样板政策和监管沙箱等机制,加快制定与新技术的飞速发展相适应的法律、法规和政策,包括对其进行定期审查,确保法律法规在正式通过之前能够在安全环境下进行测试。会员国应支持地方政府制定符合国家和国际法律框架的地方政策、法规和法律。
70.会员国应对人工智能系统的透明度和可解释性提出明确要求,以协助确保人工智能系统整个生命周期的可信度。此类要求应包括影响机制的设计和实施,其中要考虑到每个特定人工智能系统的应用领域的性质、预期用途、目标受众和可行性。
【政策领域3:数据政策】
71.会员国应努力制定数据治理战略,确保持续评估人工智能系统训练数据的质量,包括数据收集和选择过程的充分性、适当的数据安全和保护措施以及从错误中学习和在所有人工智能行为者之间分享最佳做法的反馈机制。
72.会员国应采取适当的保障措施,根据国际法保护隐私权,包括应对人们对于监控等问题的关切。会员国尤其应通过或实施可以提供适当保护并符合国际法的法律框架。会员国应大力鼓励包括工商企业在内的所有人工智能行为者遵守现行国际标准,特别是在伦理影响评估中开展适当的隐私影响评估,其中要考虑到预期数据处理产生的更广泛的社会经济影响,并在其系统中采用从设计入手保护隐私的做法。在人工智能系统的整个生命周期内应尊重、保护和促进隐私。
73.会员国应确保个人可以保留对于其个人数据的权利并得到相关框架的保护,此类框架尤其应预见到以下问题:透明度;对于处理敏感数据的适当保障;适当程度的数据保护;有效和实际的问责方案和机制;除符合国际法的某些情况外,数据主体对访问和删除其在人工智能系统中个人数据的权利和能力的充分享有;数据用于商业目的(例如精准定向广告)或跨境转移时完全符合数据保护法的适度保护;切实有效的独立监督,作为使个人可以掌控其个人数据、尊重数据主权并促进国际信息自由流通(包括数据获取)之惠益的数据治理机制的一部分。
74.会员国应制定数据政策或等效框架,或者加强现有政策或框架,以确保个人数据和敏感数据的充分安全,这类数据一旦泄露,可能会给个人造成特殊损害、伤害或困难。相关实例包括:与犯罪、刑事诉讼、定罪以及相关安全措施有关的数据;生物识别、基因和健康数据;与种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或任何其他特征有关的个人数据。
75.会员国应促进开放数据。在这方面,会员国应考虑审查其政策和监管框架,包括关于信息获取和政务公开的政策和监管框架,以便反映出人工智能特有的要求,并考虑促进相关机制,例如为公共资金资助或公有的数据和源代码以及数据信托建立开放式存储库,以支持安全、公平、合法与合乎伦理的数据分享等。
76.会员国应推动和促进将优质和稳健的数据集用于训练、开发和使用人工智能系统,并在监督数据集的收集和使用方面保持警惕。这包括在可能和可行的情况下投资建立黄金标准数据集,包括开放、可信、多样化、建立在有效的法律基础上并且按法律要求征得数据主体同意的数据集。应鼓励制定数据集标注标准,包括按性别和其他标准分列数据,以便于确定数据集的收集方式及其特性。
77.按照联合国秘书长数字合作高级别小组报告的建议,会员国应在联合国和教科文组织的支持下,酌情采用数字共享方式处理数据,提高工具、数据集和数据托管系统接口的互操作性,鼓励私营公司酌情与所有利益攸关方共享其收集的数据,以促进研究、创新和公共利益。会员国还应促进公共和私营部门建立协作平台,在可信和安全的数据空间内共享优质数据。
【政策领域4:发展与国际合作】
78.会员国和跨国公司应优先考虑人工智能伦理,在相关国际、政府间和多利益攸关方论坛上讨论与人工智能有关的伦理问题。
79. 会员国应确保人工智能在教育、科学、文化、传播和信息、卫生保健、农业和食品供应、环境、自然资源和基础设施管理、经济规划和增长等发展领域的应用符合本建议书提出的价值观和原则。
80.会员国应通过国际组织,努力为人工智能促进发展提供国际合作平台,包括提供专业知识、资金、数据、领域知识和基础设施,以及促进多利益攸关方之间的合作,以应对具有挑战性的发展问题,特别是针对中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。
81.会员国应努力促进人工智能研究和创新方面的国际合作,包括可以提升中低收入国家和其他国家(包括最不发达国家、内陆发展中国家和小岛屿发展中国家)研究人员的参与度和领导作用的研究和创新中心及网络。
82.会员国应通过吸收国际组织、研究机构和跨国公司参与,促进人工智能伦理研究,可以将这些研究作为公共和私营实体以合乎伦理的方式使用人工智能系统的基础,包括研究具体伦理框架在特定文化和背景下的适用性,以及根据这些框架开发技术上可行的解决方案的可能性。
83.会员国应鼓励在人工智能领域开展国际合作与协作,以弥合地缘技术差距。应在充分尊重国际法的前提下,在会员国与其民众之间、公共和私营部门之间以及技术上最先进和最落后的国家之间,开展技术交流和磋商。
【政策领域5:环境和生态系统】
84.在人工智能系统的整个生命周期内,会员国和工商企业应评估对环境产生的直接和间接影响,包括但不限于其碳足迹、能源消耗以及为支持人工智能技术制造而开采原材料对环境造成的影响,并应减少人工智能系统和数据基础设施造成的环境影响。会员国应确保所有人工智能行为者遵守有关环境的法律、政策和惯例。
85.会员国应在必要和适当时引入激励措施,确保开发并采用基于权利、合乎伦理、由人工智能驱动的解决方案抵御灾害风险;监测和保护环境与生态系统,并促进其再生;保护地球。这些人工智能系统应在其整个生命周期内让地方和土著社区参与,并应支持循环经济做法以及可持续的消费和生产模式。
例如,在必要和适当时可将人工智能系统用于以下方面:
(a)支持自然资源的保护、监测和管理。
(b)支持与气候有关问题的预测、预防、控制和减缓。
(c)支持更加高效和可持续的粮食生态系统。
(d)支持可持续能源的加速获取和大规模采用。
(e)促成并推动旨在促进可持续发展的可持续基础设施、可持续商业模式和可持续金融主流化。
(f)检测污染物或预测污染程度,协助相关利益攸关方确定、规划并实施有针对性的干预措施,防止并减少污染及曝露风险。
86.会员国在选择人工智能方法时,鉴于其中一些方法可能具有数据密集型或资源密集型特点以及对环境产生的不同影响,应确保人工智能行为者能够根据相称性原则,倾向于使用节约数据、能源和资源的人工智能方法。应制定要求,确保有适当证据表明一项人工智能应用程序将产生这种预期效果,或一项人工智能应用程序的附加保障措施可以为使用该应用程序的合理性提供支撑。假如做不到这一点,则必须遵循预防原则,而且在会对环境造成极其严重的负面影响的情况下,不得使用人工智能。
【政策领域6:性别】
87.会员国应确保数字技术和人工智能促进实现性别平等的潜能得到充分发挥,而且必须确保在人工智能系统生命周期的任何阶段,女童和妇女的人权和基本自由及其安全和人格不受侵犯。此外,伦理影响评估应包含横向性别平等视角。
88.会员国应从公共预算中划拨专项资金,用于资助促进性别平等的计划,确保国家数字政策包含性别行动计划,并制定旨在支持女童和妇女的相关政策,例如劳动力教育政策,以确保她们不会被排除在人工智能驱动的数字经济之外。应考虑并落实专项投资,用于提供有针对性的计划和有性别针对性的语言,从而为女童和妇女参与科学、技术、工程和数学(STEM)领域,包括信息和通信技术(信通技术)学科,以及为她们的就业准备、就业能力、平等的职业发展和专业成长,提供更多机会。
89.会员国应确保人工智能系统推动实现性别平等的潜能得到实现。会员国应确保这些技术不会加剧,而是消除模拟世界多个领域中已经存在的巨大性别差距。这些差距包括:性别工资差距;某些职业和活动中不平等的代表性;人工智能领域高级管理职位、董事会或研究团队中的代表性缺失;教育差距;数字和人工智能的获取、采用、使用和负担能力方面的差距;以及无偿工作和照料责任在社会中的不平等分配。
90.会员国应确保性别陈规定型观念和歧视性偏见不会被移植入人工智能系统,而且还应对其加以鉴别和主动纠正。必须努力避免技术鸿沟对以下方面产生复合性负面影响:实现性别平等和避免暴力侵害,例如针对妇女和女童以及代表性不足群体的骚扰、欺凌和贩运,包括在线上领域。
91.会员国应鼓励女性创业、参与并介入人工智能系统生命周期的各个阶段,具体办法是提供并促进经济和监管方面的激励措施以及其他激励措施和支持计划,制定目的是在学术界的人工智能研究方面实现性别均衡的参与、在数字和人工智能公司高级管理职位、董事会和研究团队中实现性别均衡的代表性的政策。会员国应确保(用于创新、研究和技术的)公共资金流向具有包容性和明确的性别代表性的计划和公司,并利用平权行动原则鼓励私人资金朝着类似方向流动。应制定并执行关于无骚扰环境的政策,同时鼓励传播关于如何在人工智能系统的整个生命周期内促进多样性的最佳做法。
92.会员国应促进学术界和产业界人工智能研究领域的性别多样性,为女童和妇女进入该领域提供激励措施,建立机制消除人工智能研究界的性别陈规定型观念和骚扰行为,并鼓励学术界和私营实体分享关于如何提高性别多样性的最佳做法。
93.教科文组织可以协助建立最佳做法资料库,鼓励女童、妇女和代表性不足的群体参与人工智能系统生命周期的各个阶段。
【政策领域7:文化】
94.鼓励会员国酌情将人工智能系统纳入物质、文献和非物质文化遗产(包括濒危语言以及土著语言和知识)的保护、丰富、理解、推广、管理和获取工作,具体办法包括酌情出台或更新与在这些领域应用人工智能系统有关的教育计划,以及确保采用针对机构和公众的参与式方法。
95.鼓励会员国审查并应对人工智能系统产生的文化影响,特别是自动翻译和语音助手等自然语言处理(NLP)应用程序给人类语言和表达的细微差别带来的影响。此类评估应为设计和实施相关战略提供参考,通过弥合文化差距、增进人类理解以及消除因减少使用自然语言等因素造成的负面影响,最大限度地发挥人工智能系统的惠益。减少使用自然语言可能导致濒危语言、地方方言以及与人类语言和表达形式有关的语音和文化差异的消失。
96.随着人工智能技术被用于创造、生产、推广、传播和消费多种文化产品和服务,会员国应促进针对艺术家和创意从业人员的人工智能教育和数字培训,以评估人工智能技术在其专业领域的适用性,并推动设计和应用适当的人工智能技术,同时铭记保护文化遗产、多样性和艺术自由的重要性。
97.会员国应促进当地文化产业和文化领域的中小企业对于人工智能工具的认识和评价,避免文化市场集中化的风险。
98.会员国应吸收技术公司和其他利益攸关方参与进来,促进文化表现形式的多样化供应和多元化获取,特别要确保算法建议可以提高本地内容的知名度和可见性。
99.会员国应促进在人工智能和知识产权的交汇点上开展新的研究,例如确定是否或如何对通过人工智能技术创作的作品给予知识产权保护。会员国还应评估人工智能技术如何影响作品被用于研究、开发、培训或实施人工智能应用程序的知识产权所有者的权利或利益。
100.会员国应鼓励国家级博物馆、美术馆、图书馆和档案馆使用人工智能系统,以突出其藏品,强化其图书馆、数据库和知识库,并允许用户访问。
【政策领域8:教育和研究】
101.会员国应与国际组织、教育机构、私营实体和非政府实体合作,在各个层面向所有国家的公众提供充分的人工智能素养教育,以增强人们的权能,减少因广泛采用人工智能系统而造成的数字鸿沟和数字获取方面的不平等。
102.会员国应促进人工智能教育“必备技能”的掌握,例如基本读写、计算、编码和数字技能、媒体与信息素养、批判性思维和创意思维、团队合作、沟通、社会情感技能和人工智能伦理技能,特别是在相关技能教育存在明显差距的国家及国内地区或区域。
103.会员国应促进关于人工智能发展的一般性宣传计划,其中包括数据、人工智能技术带来的机会和挑战、人工智能系统对人权(包括儿童权利)的影响及其意义。这些计划对于非技术群体和技术群体来说都应简明易懂。
104.会员国应鼓励开展关于以负责任和合乎伦理的方式将人工智能技术应用于教学、教师培训和电子学习等方面的研究活动,以增加机会,减轻这一领域的挑战和风险。在开展这些研究活动的同时,应充分评估教育质量以及人工智能技术的应用对于学生和教师的影响。会员国还应确保人工智能技术可以增强师生的权能和体验,同时铭记关系和社交方面以及传统教育形式的价值对于师生关系以及学生之间的关系至关重要,在讨论将人工智能技术应用于教育时应考虑到这一点。当涉及到监测、评估能力或预测学习者的行为时,用于学习的人工智能系统应符合严格的要求。人工智能应依照相关的个人数据保护标准支持学习过程,既不降低认知能力,也不提取敏感信息。在学习者与人工智能系统的互动过程中收集到的为获取知识而提交的数据,不得被滥用、挪用或用于犯罪,包括用于商业目的。
105.会员国应提升女童和妇女、不同族裔和文化、残障人士、边缘化和弱势群体或处境脆弱群体、少数群体以及没能充分得益于数字包容的所有人在各级人工智能教育计划中的参与度和领导作用,监测并与其他国家分享这方面的最佳做法。
106.会员国应根据本国教育计划和传统,为各级教育开发人工智能伦理课程,促进人工智能技术技能教育与人工智能教育的人文、伦理和社会方面的交叉协作。应以当地语言(包括土著语言)开发人工智能伦理教育的在线课程和数字资源,并考虑到环境多样性,特别要确保采用残障人士可以使用的格式。
107.会员国应促进并支持人工智能研究,特别是人工智能伦理问题研究,具体办法包括投资于此类研究或制定激励措施推动公共和私营部门投资于这一领域等,同时承认此类研究可极大地推动人工智能技术的进一步发展和完善,以促进落实国际法和本建议书中提出的价值观和原则。会员国还应公开推广以合乎伦理的方式开发人工智能的研究人员和公司的最佳做法,并与之合作。
108.会员国应确保人工智能研究人员接受过研究伦理培训,并要求他们将伦理考量纳入设计、产品和出版物中,特别是在分析其使用的数据集、数据集的标注方法以及可能投入应用的成果的质量和范围方面。
109.会员国应鼓励私营公司为科学界获取其数据用于研究提供便利,特别是在中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家。这种获取应遵守相关隐私和数据保护标准。
110.为确保对人工智能研究进行批判性评估并适当监测可能出现的滥用或负面影响,会员国应确保人工智能技术今后的任何发展都应建立在严谨和独立的科学研究基础上,并吸收除科学、技术、工程和数学(STEM)之外的其他学科,例如文化研究、教育、伦理学、国际关系、法律、语言学、哲学、政治学、社会学和心理学等,促进开展跨学科的人工智能研究。
111.认识到人工智能技术为助力推进科学知识和实践提供了大好机会,特别是在以往采用模型驱动方法的学科中,会员国应鼓励科学界认识到使用人工智能的惠益、不足和风险;这包括努力确保通过数据驱动的方法、模型和处理方式得出的结论完善可靠。此外,会员国应欢迎并支持科学界在为政策建言献策和促进人们认识到人工智能技术的优缺点方面发挥作用。
【政策领域9:传播和信息】
112.会员国应利用人工智能系统改善信息和知识的获取。这可包括向研究人员、学术界、记者、公众和开发人员提供支持,以加强表达自由、学术和科学自由、信息获取,加大主动披露官方数据和信息的力度。
113.在自动内容生成、审核和策管方面,会员国应确保人工智能行为者尊重并促进表达自由和信息获取自由。适当的框架,包括监管,应让线上通信和信息运营商具有透明度,并确保用户能够获取多样化的观点,以及迅速告知用户为何对内容进行删除或其他处理的相关程序和让用户能够寻求补救的申诉机制。
114.会员国应投资于并促进数字以及媒体与信息素养技能,加强理解人工智能系统的使用和影响所需的批判性思维和能力,从而减少和打击虚假信息、错误信息和仇恨言论。此种努力应包括加强对推荐系统的积极和潜在有害影响的了解和评估。
115.会员国应为媒体创造有利的环境,使媒体有权利和资源切实有效地报道人工智能系统的利弊,并鼓励媒体在其业务中以合乎伦理的方式使用人工智能系统。
【政策领域10:经济和劳动】
116.会员国应评估并处理人工智能系统对所有国家劳动力市场的冲击及其对教育要求的影响,同时特别关注经济属于劳动密集型的国家。这可以包括在各级教育中引入更广泛的跨学科“核心”技能,为当前的劳动者和年轻世代提供可以在飞速变化的市场中找到工作的公平机会,并确保他们对于人工智能系统的伦理问题有所认识。除了传授专业技术技能和低技能任务知识之外,还应教授“学会如何学习”、沟通、批判性思维、团队合作、同理心以及在不同领域之间灵活运用知识的能力等技能。关键是要在有高需求的技能方面保持透明度,并围绕这些技能更新学校课程。
117.会员国应支持政府、学术机构、职业教育与培训机构、产业界、劳工组织和民间社会之间的合作协议,以弥合技能要求方面的差距,让培训计划和战略与未来工作的影响和包括中小企业在内的产业界的需求保持一致。应促进以项目为基础的人工智能教学和学习方法,以便公共机构、私营公司、大学和研究中心之间能够建立伙伴关系118.会员国应与私营公司、民间组织和其他利益攸关方(包括劳动者和工会)合作,确保高风险员工可以实现公平转型。这包括制定技能提升计划和技能重塑计划,建立在过渡期内保留员工的有效机制,以及为无法得到再培训的员工探索尝试“安全网”计划。会员国应制定并实施计划,以研究和应对已确定的各项挑战,其中可能包括技能提升和技能重塑、加强社会保障、主动的行业政策和干预措施、税收优惠、新的税收形式等。会员国应确保有足够的公共资金来支持这些计划。应审慎审查并在必要时修改税制等相关法规,消解基于人工智能的自动化造成的失业后果。
119.会员国应鼓励并支持研究人员分析人工智能系统对于当地劳动环境的影响,以预测未来的趋势和挑战。这些研究应采用跨学科方法,调查人工智能系统对经济、社会和地域因素、人机互动和人际关系产生的影响,以便就技能重塑和重新部署的最佳做法提出建议。
120.会员国应采取适当措施,确保竞争性市场和消费者保护,同时考虑可在国家、地区和国际各级采取何种措施和机制来防止在人工智能系统的整个生命周期内滥用与人工智能系统有关的市场支配地位,包括垄断,无论是数据、研究、技术还是市场垄断。会员国应防止由此造成的不平等,评估相关市场,并促进竞争性市场。应适当考虑中低收入国家,尤其是最不发达国家、内陆发展中国家和小岛屿发展中国家,这些国家由于缺乏基础设施、人力资源能力和规章制度等要素,面临滥用市场支配地位行为的风险更大,也更容易因之受到影响。
在已制定或通过人工智能伦理标准的国家从事人工智能系统开发的人工智能行为者,在出口这些产品以及在可能没有此类标准的国家开发或应用其人工智能系统时,应遵守这些标准,并遵守适用的国际法以及这些国家的国内立法、标准和惯例。
【政策领域11:健康和社会福祉】
121.会员国应努力利用有效的人工智能系统来改善人类健康并保护生命权,包括减少疾病的爆发,同时建立并维护国际团结,以应对全球健康风险和不确定性,并确保在卫生保健领域采用人工智能系统的做法符合国际法及其人权法义务。会员国应确保参与卫生保健人工智能系统的行为者会考虑到患者与家属的关系以及患者与医护人员关系的重要性。
122.会员国应确保与健康、特别是精神健康有关的人工智能系统的开发和部署适当关注儿童和青年,并受到监管,使其做到安全、有效、高效、经过科学和医学证明并能促进循证创新和医学进步。此外,在数字健康干预的相关领域,大力鼓励会员国主动让患者及其代表参与系统开发的所有相关步骤。
123.会员国应特别注意通过以下方式规范人工智能应用程序中用于卫生保健的预测、检测和治疗方案:
(a)确保监督,以尽可能减少和减轻偏见;
(b)在开发算法时,确保在所有相关阶段将专业人员、患者、护理人员或服务用户作为“领域专家”纳入团队;
(c)适当注意因可能需要医学监测而产生的隐私问题,并确保所有相关的国家和国际数据保护要求得到满足;
(d)确保建立有效机制,让被分析的数据主体了解对其个人数据的使用和分析并给予知情同意,同时又不妨碍他们获取卫生保健服务;
(e)确保人工护理以及最终的诊断和治疗决定一律由人类作出,同时肯定人工智能系统也可以协助人类工作;
(f)必要时确保在投入临床使用之前由伦理研究委员会对人工智能系统进行审查。
124.会员国应研究人工智能系统对于心理健康的潜在危害所产生的影响及如何加以调控的问题,例如深度抑郁、焦虑、社会隔离、成瘾、贩运、激进化和误导等。
125.会员国应在研究的基础上,针对机器人的未来发展,制定关于人机互动及其对人际关系所产生影响的准则,并特别关注人类身心健康。尤其应关注应用于卫生保健以及老年人和残障人士护理的机器人、应用于教育的机器人、儿童用机器人、玩具机器人、聊天机器人以及儿童和成人的陪伴机器人的使用问题。此外,应利用人工智能技术的协助来提高机器人的安全性,增进其符合人体工程学的使用,包括在人机工作环境中。应特别注意到利用人工智能操控和滥用人类认知偏差的可能性。
126.会员国应确保人机互动遵守适用于任何其他人工智能系统的相同价值观和原则,包括人权和基本自由、促进多样性和保护弱势群体或处境脆弱群体。应考虑与人工智能驱动的神经技术系统和脑机接口有关的伦理问题,以维护人的尊严和自主权。
127.会员国应确保用户能够轻松识别与自己互动的对象是生物,还是模仿人类或动物特征的人工智能系统,并且能够有效拒绝此类互动和要求人工介入。
128.会员国应实施政策,提高人们对于人工智能技术以及能够识别和模仿人类情绪的技术拟人化的认识,包括在提及这些技术时所使用的语言,并评估这种拟人化的表现形式、伦理影响和可能存在的局限性,特别是在人机互动的情况下和涉及到儿童时。
129.会员国应鼓励并促进关于人与人工智能系统长期互动所产生影响的合作研究,特别注意这些系统对儿童和青年的心理和认知可能产生的影响。在开展此类研究时,应采用多种规范、原则、协议、学科方法,评估行为和习惯的改变,并审慎评估下游的文化和社会影响。
此外,会员国应鼓励研究人工智能技术对于卫生系统的业绩和卫生结果产生的影响。
130.会员国和所有利益攸关方应建立机制,让儿童和青年切实参与到关于人工智能系统对其生活和未来所产生影响的对话、辩论和决策中。
五、监测和评估
131.会员国应根据本国具体国情、治理结构和宪法规定,采用定量和定性相结合的方法,以可信和透明的方式监测和评估与人工智能伦理问题有关的政策、计划和机制。为支持会员国,教科文组织可以从以下方面作出贡献:
(a)制定以严谨的科学研究为基础且以国际人权法为根据的教科文组织人工智能技术伦理影响评估(EIA)方法,关于在人工智能系统生命周期各个阶段实施该方法的指南,以及用于支持会员国对政府官员、政策制定者和其他相关人工智能行为者进行伦理影响评估方法培训的能力建设材料;
(b)制定教科文组织准备状态评估方法,协助会员国确定其准备进程各个方面在特定时刻的所处状态;
(c)制定教科文组织关于在事先和事后对照既定目标评估人工智能伦理政策和激励政策效力和效率的方法;
(d)加强关于人工智能伦理政策的基于研究和证据的分析和报告;
(e)收集和传播关于人工智能伦理政策的进展、创新、研究报告、科学出版物、数据和统计资料,包括通过现有举措,以支持最佳做法分享和相互学习,推动实施本建议书。
132. 监测和评估进程应确保所有利益攸关方的广泛参与,包括但不限于弱势群体或处境脆弱群体。应确保社会、文化和性别多样性,以期改善学习过程,加强调查结果、决策、透明度和成果问责制之间的联系。
133.为促进与人工智能伦理有关的最佳政策和做法,应制定适当的工具和指标,以便根据商定的标准、优先事项和具体目标,包括关于处境不利者、边缘化群体和弱势群体或处境脆弱群体的具体目标,评估此类政策和做法的效力和效率,以及人工智能系统在个人和社会层面产生的影响。人工智能系统及相关人工智能伦理政策和做法的影响监测和评估应以与有关风险相称的系统方法持续开展。这项工作应以国际商定的框架为基础,涉及对于私营和公共机构、提供方和计划的评估,包括自我评估,以及开展跟踪研究和制定一系列指标。数据收集和处理工作应遵守国际法、关于数据保护和数据隐私的国家立法以及本建议书概述的价值观和原则。
134.尤其是,会员国不妨考虑可行的监测和评估机制,例如:伦理问题委员会、人工智能伦理问题观察站、记录符合人权与合乎伦理的人工智能系统发展情况或在教科文组织各职能领域通过恪守伦理原则为现有举措作出贡献的资料库、经验分享机制、人工智能监管沙箱和面向所有人工智能行为者的评估指南,以评估会员国对于本文件所述政策建议的遵守情况。
六、本建议书的使用和推广
135.会员国和本建议书确定的所有其他利益攸关方应尊重、促进和保护本建议书提出的人工智能伦理价值观、原则和标准,并应采取一切可行步骤,落实本建议书的政策建议。
136.会员国应与在本建议书的范围和目标范畴内开展活动的所有相关国家和国际政府组织、非政府组织、跨国公司和科学组织合作,努力扩大并充实围绕本建议书采取的行动。
制定教科文组织伦理影响评估方法和建立国家人工智能伦理委员会,可以作为这方面的重要手段。
七、本建议书的宣传
137.教科文组织是负责宣传和传播本建议书的主要联合国机构,因此将与其他相关联合国实体合作开展工作,同时尊重它们的任务授权并避免工作重复。
138.教科文组织,包括其世界科学知识与技术伦理委员会(COMEST)、国际生物伦理委员会(IBC)和政府间生物伦理委员会(IGBC)等机构,还将与其他国际、地区和分地区政府组织和非政府组织开展合作。
139.尽管在教科文组织范围内,促进和保护任务属于各国政府和政府间机构的职权范围,但民间社会将是倡导公共部门利益的重要行为者,因此教科文组织需要确保和促进其合法性。
八、最后条款
140.应将本建议书作为一个整体来理解,各项基本价值观和原则应被视为相互补充、相互关联。
141.本建议书中的任何内容既不得解释为取代、改变或以其他方式损害各国根据国际法所负义务或所享权利,也不得解释为允许任何国家、其他政治、经济或社会行为者、群体或个人参与或从事任何有悖人权、基本自由、人的尊严以及对生物和非生物的环境与生态系统所抱之关切的活动或行为。
全球环境治理前沿资讯
绿会融媒LOGO
【绿讯】是中国绿发会国际部发挥智库功能、为了推动中国深度参与全球环境治理推出的一系列全球环境治理的最新的动态。本文资讯摘自联合国教科文组织发布的会议文件。仅供参考。
【拓展阅读】
绿会建言获UNESCO采纳:生物多样性写入人工智能伦理问题建议书(2021-11-27)
https://www.thepaper.cn/newsDetail_forward_15587198
《人工智能伦理问题建议书》出台过程一览(2021-11-27)
https://baijiahao.baidu.com/s?id=1717586373427536377
周晋峰:就UNESCO人工智能伦理征求意见,谈全面践行生态文明(2020/9/8)
http://www.cbcgdf.org/NewsShow/4854/13747.html
中国绿发会生物与科学伦理工作委员会征集对《人工智能伦理问题建议书草案》建议(2020-07-28)
https://www.thepaper.cn/newsDetail_forward_8467531
中国绿发会BASE建言联合国教科文组织人工智能伦理应纳入生物多样性及公共卫生安全新共识(2020-07-27)
https://www.sohu.com/a/410010586_100001695
人工智能何以促进未来教育发展
原标题:人工智能何以促进未来教育发展自工业革命以来,人类社会的发展总是在技术与教育的角逐互动中前行。技术作为推动人类历史发展的核心推进力,与教育这一“人力资本发动机”竞相成为推动经济社会发展的主力。人工智能作为第四次工业革命的显著标签,其飞速发展正在逐步塑造社会、经济、生活等领域的业务新形态,也不断带来颠覆性、丰富性、创新性的新业态。面对人工智能技术对整个社会发展的刺激,教育如何发展,成为值得思考的重要问题。
人工智能凸显创新人才发展挑战
作为引发第四次科技革命的核心技术,人工智能促进社会经济和科技的指数级发展,对人力资本的质量与供给产生了新的需求,人工智能与人力资源之间的相互依存关系产生了前所未有的张力,教育的超前性更是受到前所未有的挑战。第一,知识增长的指数发展使得未来人才需要哪些方面的准备具有极大的不确定性。第二,智力劳动者比重增加,创新人才成为时代发展的刚需。人工智能技术与生产过程的深度融合,会极大压缩生产领域的从业者需求,特别是那些人工智能胜出的领域。第三,人工智能技术的兴起引发高技术产业、新兴产业、新型服务行业更广阔的发展空间,从而使得创新型人才、复合型人才、高技术人才等在劳动力结构中需求激增。人工智能技术无法取代的创造性、灵活性、人文性等能力将成为智能化时代人才竞争的关键。教育肩负培养创新人才、为未来人才提前布局的使命。回溯历史,我们可以得到的经验是,只有教育领先于技术的发展步伐,为技术推进的社会提前做好人力资源的布局,社会的发展才有后劲。因此,在人工智能推进社会更飞速发展的今天,必须回答好什么样的教育才能承载提前布局人力资源的使命,以应对未知社会的人才挑战这一问题。
人工智能催生新的知识生产方式
在人工智能的影响下,人类知识生产加剧变化,知识增量呈现指数级态势。教育的传承性发展将不再局限于知识的传授与继承,而强调知识创造与创新,人工智能的介入更是催生了新的知识生产方式。其一,人工智能强大的知识发现能力缩短了知识生产周期。随着深度学习、强化学习等新的机器学习算法的发展,人工智能除了可以加快知识的生产、访问和利用,还可以从数据中提取隐含的、未知的、潜在的、有用的信息(知识),从而扩展知识创造的能力。其二,人机协同的智能模式扩大了知识创造的机会与可能性。人工智能技术不仅促进人的群智协同创新,而且可以实现人类与人工智能代理协同,后者所具有的超强计算能力,可以极大加速知识生产,催生知识的众创,以及人机协同知识创新。人工智能催生的新的知识生产方式对教育的挑战是,教育不再局限于知识传承,而更是知识的创新。未来学校教育必须教会学生如何与人工智能技术协同合作,呵护学习者“能学”,以及高度重视学生辨析知识能力的培养,召唤学习者“会学”,促进学习者在人机交互中实现知识更新与创造。
人工智能变革学习方式带来创造力与活力释放可能
人工智能已经引发了诸多领域与行业的深刻变革,对教育的系统性变革更是呼之欲出,为学习方式的变革带来了可能。首先,人工智能技术带来规模化教育的个性化可能。人工智能构建的智慧学习环境不仅创造灵活的学习空间,还能感知学习情境、识别学生特征,为学生提供个性学习支持。其次,人工智能技术带来标准化教育下的适应性可能。人工智能通过动态学习诊断、反馈与资源推荐的自适应学习机制,可以适应学生动态变化的学习需求,从而打破标准化的教育限制,释放出学生的创造力与活力。最后,人工智能改善结构化的授导方式,释放教师的创造力与教学活力而专注于人性化的学习设计。教师烦琐重复性的工作能够被智能机器所替代,智能分析技术能为教师精准定位学生的学习问题与需求,教师的角色将转向更加优秀的学习设计师,专注于“如何让学生学好”,注重培养学生的能力和思维,将更多时间用于学习活动设计以及与学生的个性化互动交流,为学生提供个性化学习支持服务。人工智能的发展以及与教育教学的深度融合,给教育的改革创新带来了更多选择,教育需要发挥技术的赋能、增能、使能优势满足教育的功用性追求,也要坚守教育的育人初心和使命传递人文性价值,以学生的成长发展为前提探索可以实践的学习方式、学习设计,通过人工智能释放出教育的更大活力。
人工智能引发领域与行业变革催生教育生态升级
人工智能对其他领域与行业的变革影响也会延伸到教育领域,因为教育是关乎社会发展全局的事业。一方面,人工智能所发挥的增强、替代、改善、变革等作用,突出体现在对社会生产和生活各个领域所产生的行业重塑作用,以及对人力的释放。另一方面,这些重塑作用和人力的释放,引发了社会领域与行业的变革,促使了社会人才需求的转向;而教育是社会人才资源输出的重要领地,需要为此作出有力回应,从而催生教育生态升级。人工智能加速了教育深化改革的进程,推动了系统内部的更新再造。数字技术已经对教师学生、课程、教学方式、学习体验、评价、管理等教育要素产生了深刻影响,并通过逐步的再造教育流程,变革着教育生态。而人工智能则在进一步加速这一过程,以一种颠覆性创新的态势,拓展系统内各要素的内涵,改善和延展系统内部关系,重塑教育系统功能与形态。人工智能拓展了教育边界,助推未来学校建设。未来学校将借助技术的力量,把校外学习场所(如科技馆、博物馆)和线上学习场所都纳入“学校”的范畴,整合社会各领域的教育资源,形成一种全新的育人环境。同时,数字孪生等新技术促进现实空间与虚拟空间的交互融合,通过创建人、物、环境数字孪生体,实现物理空间与数字空间的双向映射、动态交互和实时连接。对教育系统内部的升级改造以及空间资源的拓展,能够使其更好地与社会领域衔接,更好地提供适应未来生活和工作的创新人才成长场所。
人工智能关乎强国战略目标实现
教育应服务于国家战略布局,为抢占人工智能发展先机,构筑先发优势;为国际竞争、社会发展输出创新人才,支持科学技术的自主研发。当前,世界各国纷纷把发展人工智能上升到国家战略的高度,以抢占新一轮科技革命的机遇高点以及全球竞争中的主动权。《新一代人工智能发展规划》提出我国要“成为世界主要人工智能创新中心”的战略目标,全局部署了经济、教育、科技、社会发展和国家安全等重要方面。教育强国战略是科教兴国战略、人才强国战略和创新驱动发展战略等重要战略的逻辑起点,人工智能对教育的人才培养能力提出更高要求。近年来,世界各国在发展人工智能的同时也面临巨大挑战,如创新人才问题、高新技术自主可控问题等。人工智能的国际竞争本质是人才的较量,这需要教育从战略层面予以回应。因此,教育在战略上起引领作用,就要既充分发挥智能技术优势推动教育生态系统升级,又谋篇布局为国家发展提供人才支撑。立足技术与教育在角逐中互为塑造的视角,对人工智能促进未来教育发展的探索,更需要在战略上把握先机,通过教育为社会各领域输出创新人才,支撑社会各领域转型升级以及人工智能等高新科技的创新发展,为强国战略注入持续活力与能量。
教育在与技术的角逐中共同推动社会的发展。教育具有超前性、人文性、传承性、战略性及生态性等特点。在人工智能技术的指数式发展面前,教育的超前性变得难以维系;需要慢工出细活的人文性与满足社会用人需求的工具性之间呈现时空拉锯和矛盾;对人类知识的传承则变身为历史传承、人际共创以及人机共创的多重特征。随着人工智能技术推动的发展加速,教育的发展战略、前瞻性谋划,是一个时不我待、任重道远的重要课题。
(作者:顾小清,系国家社科基金重大项目“人工智能促进未来教育发展研究”首席专家、华东师范大学教育信息技术学系教授)
(责编:郝孟佳、孙竞)分享让更多人看到
人工智能的发展与未来
随着人工智能(artificialintelligent,AI)技术的不断发展,各种AI产品已经逐步进入了我们的生活。
现如今,各种AI产品已经逐步进入了我们的生活|Pixabay
19世纪,作为人工智能和计算机学科的鼻祖,数学家查尔斯·巴贝奇(CharlesBabbage)与艾达·洛夫莱斯(AdaLovelace)尝试着用连杆、进位齿轮和打孔卡片制造人类最早的可编程数学计算机,来模拟人类的数理逻辑运算能力。
20世纪初期,随着西班牙神经科学家拉蒙-卡哈尔(RamónyCajal)使用高尔基染色法对大脑切片进行显微观察,人类终于清晰地意识到,我们几乎全部思维活动的基础,都是大脑中那些伸出细长神经纤维、彼此连接成一张巨大信息网络的特殊神经细胞——神经元。
至此,尽管智能的具体运作方式还依然是个深不见底的迷宫,但搭建这个迷宫的砖瓦本身,对于人类来说已经不再神秘。
智能,是一种特殊的物质构造形式。
就像文字既可以用徽墨写在宣纸上,也可以用凿子刻在石碑上,智能,也未必需要拘泥于载体。随着神经科学的启迪和数学上的进步,20世纪的计算机科学先驱们意识到,巴贝奇和艾达试图用机械去再现人类智能的思路,在原理上是完全可行的。因此,以艾伦·图灵(AlanTuring)为代表的新一代学者开始思考,是否可以用二战后新兴的电子计算机作为载体,构建出“人工智能”呢?
图灵在1950年的论文《计算机器与智能(ComputingMachineryandIntelligence)》中,做了一个巧妙的“实验”,用以说明如何检验“人工智能”。
英国数学家,计算机学家图灵
这个“实验”也就是后来所说的“图灵测试(Turingtest)”:一名人类测试者将通过键盘和显示屏这样不会直接暴露身份的方式,同时与一名人类和一台计算机进行“网聊”,当人类测试者中有七成都无法正确判断交谈的两个“人”孰真孰假时,就认为这个计算机已经达到了“人工智能”的标准。
虽然,图灵测试只是一个启发性的思想实验,而非可以具体执行的判断方法,但他却通过这个假设,阐明了“智能”判断的模糊性与主观性。而他的判断手段,则与当时心理学界崛起的斯纳金的“行为主义”不谋而合。简而言之,基于唯物主义的一元论思维,图灵和斯金纳都认为,智能——甚至所有思维活动,都只是一套信息处理系统对外部刺激做出反应的运算模式。因此,对于其他旁观者来说,只要两套系统在面对同样的输入时都能够输出一样的反馈,就可以认为他们是“同类”。
1956年,人工智能正式成为了一个科学上的概念,而后涌现了很多新的研究目标与方向。比如说,就像人们在走迷宫遇到死胡同时会原路返回寻找新的路线类似,工程师为了使得人工智能达成某种目标,编写出了一种可以进行回溯的算法,即“搜索式推理”。
而工程师为了能用人类语言与计算机进行“交流”,又构建出了“语义网”。由此第一个会说英语的聊天机器人ELIZA诞生了,不过ELIZA仅仅只能按照固定套路进行作答。
而在20世纪60年代后期,有学者指出人工智能应该简化自己的模型,让人工智能更好的学习一些基本原则。在这一思潮的影响下,人工智能开始了新一轮的发展,麻省理工学院开发了一种早期的自然语言理解计算机程序,名为SHRDLU。工程师对SHRDLU的程序积木世界进行了极大的简化,里面所有物体和位置的集合可以用大约50个单词进行描述。模型极简化的成果,就是其内部语言组合数量少,程序基本能够完全理解用户的指令意义。在外部表现上,就是用户可以与装载了SHRDLU程序的电脑进行简单的对话,并可以用语言指令查询、移动程序中的虚拟积木。SHRDLU一度被认为是人工智能的成功范例,但当工程师试图将这个系统用来处理现实生活中的一些问题时,却惨遭滑铁卢。
而这之后,人工智能的发展也与图灵的想象有所不同。
现实中的人工智能发展,并未在模仿人类的“通用人工智能(也称强人工智能)”上集中太多资源。相反,人工智能研究自正式诞生起,就专注于让计算机通过“机器学习”来自我优化算法,最后形成可以高效率解决特定问题的“专家系统”。由于这些人工智能只会在限定好的狭窄领域中发挥作用,不具备、也不追求全面复杂的认知能力,因此也被称为“弱人工智能”。
但是无论如何,这些可以高效率解决特定问题的人工智能,在解放劳动力,推动现代工厂、组织智能化管理上都起到了关键作用。而随着大数据、云计算以及其他先进技术的发展,人工智能正在朝着更加多远,更加开放的方向发展。随着系统收集的数据量增加,AI算法的完善,以及相关芯片处理能力的提升,人工智能的应用也将逐渐从特定的碎片场景转变为更加深度、更加多元的应用场景。
人工智能让芯片的处理能力得以提升|Pixabay
从小的方面来看,人工智能其实已经渐渐渗透进了我们生活的方方面面。比如喊一声就能回应你的智能语音系统,例如siri,小爱同学;再比如在超市付款时使用的人脸识别;抑或穿梭在餐厅抑或酒店的智能送餐机器人,这些其实都是人工智能的应用实例。而从大的方面来看,人工智能在制造、交通、能源及互联网行业的应用正在逐步加深,推动了数字经济生态链的构建与发展。
虽然脑科学与人工智能之间仍然存在巨大的鸿沟,通用人工智能仍然像个科幻梦,但就像萧伯纳所说的那样“科学始终是不公道的,如果它不提出十个问题,也永远无法解决一个问题。”科学总是在曲折中前进,而我们只要保持在不断探索中,虽无法预测是否能达到既定的目的地,但途中终归会有收获。
参考文献
[1]王永庆.人工智能原理与方法[M].西安交通大学出版社,1998.
[2]Russell,StuartJ.ArtificialIntelligence:AModernApproach[J].人民邮电出版社,2002.
[3]GabbayDM,HoggerCJ,RobinsonJA,etal.Handbookoflogicinartificialintelligenceandlogicprogramming.Vol.1:Logicalfoundations.,1995.
[4]胡宝洁,赵忠文,曾峦,张永继.图灵机和图灵测试[J].电脑知识与技术:学术版,2006(8):2.
[5]赵楠,缐珊珊.人工智能应用现状及关键技术研究[J].中国电子科学研究院学报,2017,12(6):3.
[6]GeneserethMR,NilssonNJ.LogicalFoundationofArtificialIntelligence[J].brainbroadresearchinartificialintelligence&neuroscience,1987
作者:张雨晨
编辑:韩越扬
[责编:赵宇豪]【人工智能】2博弈问题、博弈搜索策略
一、问题描述方法:问题归约1.问题归约描述问题归约法与之前提到的状态空间法都是对进行问题描述,转换为符合或者图,但是思路不同。有许多问题可以通过一系列变换而最终变为一个子问题集合;这些子问题的解可以直接得到,通过解决这些子问题,从而就解决了初始问题。这样一种解决问题的思路就称为是问题归约法。例如之前的汉诺塔问题,在状态空间描述中,表示的是ABC三个金片的状态S=(i,j,k)(即位于什么位置),而在问题归约描述中,描述问题的思路是将这个复制问题拆分成几个子问题,子问题完成了,那么总的问题也就完成了。
问题P:将ABC移动到3号钢针。问题P1:把金片A及B移到2号钢针上的双金片移动问题。问题P2:把金片C移到3号钢针上的单金片移动问题。问题P3:把金片A及B移到3号钢针上的双金片移动问题。与状态空间描述类似,问题归约由初始问题、问题变换操作符、本原问题组成。
2.与或图表示1)与图:其实上面汉诺塔问题的分解就是与图。把一个问题分解成若干个问题,就可以用与图表示,只有子问题全部得到解决,原问题才能解决。P是一个与节点。2)或图:把一个问题变换为若干个子问题,可以表示成或图。只要有一个可以解决,原问题P就可以解决,P是一个或节点。3)与或图:原问题需要通过分解和变换操作,得到本原问题,这样的归约过程可用一个与或图表示。4)端节点:没有子节点的节点。终叶(止)节点:本原问题所对应的节点。可解节点:终止节点;至少有一个可解子节点的或节点;子节点全部可解的与节点。不可解节点反之。解图(解树):由可解节点构成的,并且由这些可解节点可以推出初始节点为可解节点的子图为解图。
3.问题求解的比较*在特殊情况下,只有或节点的与或图即变成普通图的状态空间搜索。
二、与或树的搜索与状态空间搜索过程不同,因为与或树搜索出来的是一个解树,所以要不停的进行可解标示过程和不可解标示过程,自下而上进行标识:(1)把原始问题作为初始节点S0,并把它作为当前节点;(2)应用分解或等价变换操作对当前节点进行扩展;(3)为每个子节点设置指向父节点的指针;(4)选择合适的子节点作为当前节点,反复执行第(2)步和第(3)步,在此期间需要多次调用可解标记过程或不可解标记过程,直到初始节点被标记为可解节点或不可解节点为止。
1.盲目搜索广度深度搜索,区别仅是扩展子节点在OPEN表中的顺序。搜索过程如下:(1)把初始节点S0放人Open表中;(2)把Open表的第一个节点取出放入Closed表,并记该节点为n;(3)如果节点n可扩展,则做下列工作:①扩展节点n,将其子节点放入Open表的尾部,并为每一个子节点设置指向父节点的指针;②考察这些子节点中是否有终止节点。若有,则标记这些终止节点为可解节点,并用可解标记过程对其父节点及先辈节点中的可解节点进行标记。如果初始解节点S0能够被标记为可解节点,就得到了解树,搜索成功,退出搜索过程;如果不能确定S0为可解节点,则从Open表中删去具有可解先辈的节点;③转第(2)步。(4)如果节点n不可扩展,则做下列工作:①标记节点n为不可解节点;②应用不可解标记过程对节点n的先辈中不可解的节点进行标记。如果初始解节点S0也被标记为不可解节点,则搜索失败,表明原始问题无解,退出搜索过程;如果不能确定S0为不可解节点,则从Open表中删去具有不可解先辈的节点;③转第(2)步。
2.启发式搜索1)与或树的启发式搜索时寻求最优解树的过程,即代价最小的解树。2)节点的代价怎么定义和计算:①如果n为终止节点:h(n)=0②如果n为或节点,且子节点为n1,n2,…,nk:h(n)=min{c(n,ni)+h(ni)}(1≤i≤k)③如果n为与节点,且子节点为n1,n2,…,nk:和代价法:h(n)=∑((c(n,ni)+h(ni))i=1,2,……,k最大代价法:h(n)=max{c(n,ni)+h(ni)}(1≤i≤k)④如果n是端节点,但又不是终止节点:h(n)=∞按这种计算方法,最后得到的解树的代价累加到初始节点上,即为初始节点的代价。3)希望树的概念:在启发式的最优解树求解过程中,任何时刻都应该选择那些最有希望成为最优解树一部分的节点进行扩展,随着求解过程中不断扩展,要对希望值进行不断地估计和修正。4)搜索过程:自顶向下,图生成过程扩展节点,从希望树中选择一个节点扩展;自底向上,计算代价过程修正代价估值,重新选择希望树。(1)把初始节点S0放入Open表中,计算h(S0);(2)计算希望树T;(3)依次在Open表中取出T的端节点放入Closed表,并记该节点为n;(4)如果节点n为终止节点,则做下列工作:①标记节点n为可解节点;②在T上应用可解标记过程,对n的先辈节点中的所有可解解节点进行标记;③如果初始解节点S0能够被标记为可解节点,则T就是最优解树,成功退出;④否则,从Open表中删去具有可解先辈的所有节点。⑤转第(2)步。(5)如果节点n不是终止节点,但可扩展,则做下列工作:①扩展节点n,生成n的所有子节点;②把这些子节点都放入Open表中,并为每一个子节点设置指向父节点n的指针③计算这些子节点及其先辈节点的h值;④转第(2)步。(6)如果节点n不是终止节点,且不可扩展,则做下列工作:①标记节点n为不可解节点;②在T上应用不可解标记过程,对n的先辈节点中的所有不可解解节点进行标记;③如果初始解节点S0能够被标记为不可解节点,则问题无解,失败退出;④否则,从Open表中删去具有不可解先辈的所有节点。⑤转第(2)步。
三、博弈树的启发式搜索1.什么是博弈树1)研究的是一类:二人零和、全信息、非偶然的博弈二人零和:一方赢,另一方输;或者平局全信息:知道当前和历史非偶然:任何一方走步时,都选择对自己最为有利,而对另一方最为不利的行动方案2)在博弈树中:①博弈的初始状态是初始节点;②博弈树中的“或”节点和“与”节点是逐层交替出现的;(我方每次下是或,我方只有一种选择走;对手每次下是与,要估计对手全部的选择可能是哪些)③整个博弈过程始终站在某一方的立场上,所有能使自己一方获胜的终局都是本原问题,相应的节点是可解节点;所有使对方获胜的终局都是不可解节点。
2.极大极小分析1)为其中一方选择最优行动方法;2)要考虑每一方案实施后对方所要采取的行动,并计算可能的得分;3)根据问题的特性信息定义评价函数(我方的得分);4)端节点的估值计算出后,再推算出父节点的得分。或节点,选择子节点中最大得分(MAX)作为父节点的得分;(我方下对我方最有利的)与节点,选择子节点中最小得分(MIN)作为父节点的得分;(对方下对我方最利的)解树的得分越大越有利,对于很多要走很多步的解,通常不会进行全局的搜索,而是只在局部搜索局部的最优解,指导本次如何移动。
3.αalphaα-βetaβ剪枝分析对于αalphaα-βetaβ剪枝死记硬背不好用,理解之后自然就明白了。1)αalphaα值:或节点:子节点中的最大倒推值的下界;βetaβ值:与节点:子节点中的最小倒推值的上界。2)αalphaα剪枝:若任一极小层节点m的βetaβ值小于或等于其位于极大层的父节点的αalphaα值,则可终止该极小层中节点m以下的搜索过程。
βetaβ剪枝:若任一极大层节点m的αalphaα值大于或等于其位于极小层的父节点的βetaβ值,则可终止该极大层中节点m以下的搜索过程。
3)注意:要进行αalphaα-βetaβ剪枝,至少必须使某一部分的搜索树生长到最大深度;采用αalphaα-βetaβ过程都要使用某种深度优先的搜索方法;比较都是在极小结点和极大结点间进行的;αalphaαβetaβ的影响可以是隔层的,例如:如下图,已知扩展到A=4,继续扩展B,扩展到E时,E=0就可以自下而上推,对于C有两种可能,无论是取D