【陈小平】人工智能伦理体系:基础架构与关键问题
随着人工智能第三次浪潮带来的重要进展,人工智能伦理挑战已成为当前国内外普遍关注的一个焦点,一些组织和机构开展了相关议题的研讨,发布了一批人工智能伦理准则的建议。中国人工智能学会对人工智能伦理问题高度重视,于2018年年中开始组建人工智能伦理专委会。在2019全球人工智能技术大会上,5月26日举行了“全球视野下的人工智能伦理”论坛,在国际上首次提出了人工智能伦理体系规划问题,这意味着人工智能伦理建设开始进入第三阶段,而人工智能伦理体系的关键问题研究提上了议事日程。正如中国人工智能学会理事长李德毅院士在论坛致辞中指出的那样,本次论坛具有里程碑意义。
1人工智能伦理建设:从伦理准则到伦理体系
人工智能伦理建设已经历了两个阶段。第一阶段是人工智能伦理必要性的讨论,从专业角度说,耶鲁大学WendellWallach等美国学者起了带头作用,在国际上引起了普遍重视;从更广泛的背景看,尤瓦尔·赫拉利的《人类简史》发挥了重要的推动作用。第二阶段是人工智能伦理准则的讨论,欧盟走在前面,中国和其他一些国家也积极参与其中。
在第二阶段,欧盟人工智能伦理高级专家组提出了人工智能伦理的7条准则[1],包括:确保人的能动性和监督性、保证技术稳健性和安全性、加强隐私和数据管理、保证透明度、维持人工智能系统使用的多样性、非歧视性和公平性、增强社会福祉、加强问责制。我国清华大学人工智能与安全项目组提出了6条准则[2]:福祉原则、安全原则、共享原则、和平原则、法治原则、合作原则。据不完全统计[3,4,5,6,7,8,9,10,11,12,13,14,15],迄今已有40多个机构或组织提出了各自的人工智能伦理准则建议。总体上看,所有这些准则建议是基本一致的。
因此本文认为,人工智能伦理准则讨论阶段已达成共识而基本结束了。在这些共识的基础上,人工智能伦理建设需要进入第三阶段,即人工智能伦理体系的讨论。
那么,“人工智能伦理体系”与“人工智能伦理准则”有什么不同?展开人工智能伦理体系的讨论有什么必要性和紧迫性?我认为,以下四个关键问题,是伦理准则无法回答,人工智能伦理体系建设无法回避的。不解决这些问题,就不可能建立完整、有效的人工智能伦理体系。
第一,人工智能伦理体系的运作机制问题。任何伦理准则都不可能自我执行,都必须借助于伦理体系中的一系列相互配合的运作机制才能得到落实。这就如同法律条文制定得再好,也不可能自我执行,必须在完整的法制体系中才可以得到落实,而法制体系是由立法、司法、执法等机制组成的。没有完整的法制体系的支撑,必然出现有法不依的问题。当然,伦理体系与法制体系是十分不同的,不可能完全照抄法制体系的“模板”,所以必须开展人工智能伦理体系的讨论,尤其是运作机制的讨论。
第二,人工智能伦理准则的场景落地问题。已经提出的人工智能伦理准则,大部分属于反映普世价值的原则。当把这些准则应用于具体的实际场景,就需要细化为可操作的具体规定,否则必然停留在口号的层面上无法落地。例如,无人驾驶可以有两种本质不同的应用场景。一种是完全无人驾驶交通系统,这种交通系统中只有无人驾驶汽车,没有有人驾驶汽车,行人必须严格遵守与普通道路交通完全不同的规则。另一种应用场景是混合交通系统,其中无人驾驶汽车和有人驾驶汽车同时存在,行人遵守普通道路交通规则。这两种交通系统虽然都是无人驾驶的应用场景,它们所面临的技术和伦理风险却是非常不同的。在混合交通系统中,人工智能技术面临着难度和复杂度更大的挑战,而其中大部分最难的挑战在无人驾驶交通系统中是不存在的。因此,在人工智能伦理体系中,需要为两种交通系统制定非常不同的监管规定,即使这两种交通系统符合相同的人工智能伦理准则。
第三,人工智能伦理风险的预测判别问题。世界上所有民航局都规定了禁带物品清单,同时强制实行登机安检,以检测乘客和乘务人员是否携带了禁带物品。在人工智能伦理体系中,也需要有对应于“禁带物品清单”的某种“违禁物清单”,以便有针对性地进行风险监督和管控。显然,人工智能伦理准则只是一些原则,并不包含人工智能的“违禁物清单”,比如“安全原则”不可能具体指出哪些人工智能技术是不安全的,“公平性原则”不可能具体指出哪些人工智能技术是不公平的。同时,人工智能处于不断发展之中,不可能一劳永逸的列出完整的“违禁物清单”。所以,只能在人工智能伦理体系中建立某种常态化机制,该机制能够预测、判别任何一项人工智能技术有什么风险、风险多大、是否应该禁用等等。这种机制过去并不存在,这是人类面临的一个全新课题。
第四,重大社会问题综合创新的动力机制问题。伦理学的基本落脚点围绕着“正确的和错误的行为”[16,17];也就是说,伦理并非只关心“不做错事”,也关心“要做好事”。可是在迄今人工智能伦理的讨论中,防范风险的一面得到了普遍重视和广泛讨论,而推动社会进步和经济发展的一面却没有受到足够重视,这已成为人工智能伦理体系建设的最大短板。有一种观点认为,推动经济发展、社会进步的问题,应该并且已经由人工智能研究和产业化承担了,无需人工智能伦理的介入。这种观点是不符合当今社会现实和未来发展态势的。例如,根据民政部等部门的统计,中国有2.5亿个家庭需要家政服务,而现有家政服务人员不到1700万。根据中国老龄办2016年调查,中国失能和半失能老人总数已达4000万,而且每年增加800万。类似问题在发达国家也不同程度地存在着。目前,这些问题难以找到有效的解决办法,因为现存科技和产业创新(innovation)的主要动力机制是商业化,而商业化机制应对老龄化等社会问题的效力是严重不足的,未来这种情况将越来越严重。因此,有必要在商业化机制之外,增加一种新型的综合创新机制,即借助于人工智能技术的伦理性创新。
2人工智能伦理体系的基础架构
人工智能伦理体系的一种基础架构如图1所示。这个架构并不包含人工智能伦理体系的全部内容,而是重点回答上面指出的四个关键问题。
按照流行观点,人工智能创新生态包含3个主要环节:“社会需求”、“研究”与“应用”,它们形成一个循环演进的闭环,即需求推动研究,成熟的研究成果经过商业化途径实现实际应用,而实际应用又可引发新的需求。这个闭环正是人工智能伦理体系的作用对象,而人工智能伦理体系建立之后,整个人工智能生态的构成和运作机制也将大大改变和升级。
人工智能伦理通过3个层次发挥作用:上层为人工智能伦理的基本使命;中层为人工智能伦理准则;下层为针对具体应用场景的可操作的监督治理规定。
在图1所示的人工智能伦理体系基础架构中,我们将人工智能伦理的基本使命定义为“为增进人类福祉和万物和谐共存提供伦理支撑”。这个使命本身也是一条伦理准则,但相对于其他准则,它的价值具有更大的普遍性和稳定性,它的内涵概括了其他伦理准则的内涵,而其他伦理准则未必能概括基本使命的内涵。因此,基本使命可用于指导人工智能研究与应用,以及中层伦理准则的制定、改进和完善,而其他伦理准则未必可以或未必需要用来指导伦理性研究。另外,人工智能伦理性研究不太可能改变基本使命的内涵,却可以影响和改变其他伦理准则的内涵。总之,人工智能伦理的基本使命可以视为“伦理准则的准则”,也就是人工智能的基本价值观。
中层的伦理准则即在人工智能伦理建设第二阶段中达成共识的那些价值原则。这些伦理准则是基本使命的具体体现,并为实施细则的制定和科技研究实践提供引导。
为了将伦理准则落实到一个个具体的应用场景中,需要制定针对性、强制性、可操作的实施细则,即一套完整的监督治理规定。每一个应用场景都由一套对应的规定加以约束,不同的应用场景可以有不同的规定。针对一个具体的应用场景,一套规定往往包含下列多方面的具体要求和规范:产品标准(企业标准)、技术标准(团体标准/国家标准/国际标准)、行规、产业政策、法规等。这些不同方面的规定是由不同的机构制定和监管的,包括企业、标准化组织、行业组织、政府部门和法制机构,这些规定之间存在复杂的相互关系。例如,企业制定的产品标准的指标不得低于标准化组织制定的技术标准的指标。产品标准和技术标准是针对一类具体产品或服务的,而行规和产业政策是针对整个行业的,所以它们是互补的。法规是从法律层次做出的规定,具有最高的强制性和权威性,通常不是针对特定产品和服务的,甚至可以不针对具体行业。
从作为伦理实施细则的规定的构成可以看出,人工智能伦理建设不可能由某一领域的专家完成,而是必须涉及一系列相关方,从企业、大学和科研机构、标准化组织、行业组织、政府机构到法律部门,需要所有这些相关方的相互协调和共同努力。在相关方的协调中,不仅需要遵守共同的伦理准则,而且需要遵守伦理体系基础架构对各自角色的定位和相互关系的约定。
3人工智能的风险预测判别机制
实现人工智能伦理基本使命的一项必要前提,是确保人工智能的伦理底线,即确保人工智能研究和应用的风险控制在可控范围内。综合看来,人工智能有以下3种风险。第一,技术误用:由于人工智能技术不够成熟、不够人性化或缺乏足够的伦理约束等原因,给使用者带来直接的损害,比如数据隐私问题、安全性问题和公平性问题等。第二,技术失控:即人类失去对人工智能技术的控制而出现严重的后果。例如,现在不少人担心,将来人工智能会全面超过人类的智慧和能力,以至于统治人类。第三,应用失控:人工智能技术在某些行业的普遍应用带来严重的负面社会效果,如导致很多人失业。
目前全球不存在相关机构和充分的研究力量,能够对这三种风险进行预测和判别。因此,有必要在人工智能创新生态中,增设一种新型研究模式和部门——人工智能伦理性研究,这种研究的一个核心职能是承担对三种风险的预测和判别,也就是担任人工智能风险底线的守护者。因此,在未来人工智能创新生态中,“研究”将被划分为两个相对独立的部门,一个是传统的科技研究/技术性研究部门,一个是伦理性研究部门,它们之间存在相互支持的关系。
人工智能风险预测判别研究与传统的科技研究之间存在本质区别。技术学科的研究历来以“潜在应用”为目的,自然科学研究则以“求知”为目的,而人工智能风险预测判别研究的基本职能是依据伦理准则,通过科学手段,探明某项技术的风险及其严重性,从而为是否应该禁用该技术提供可靠依据。因此,风险预测判别研究以“潜在禁用”为主要目的。由此可见,建立人工智能伦理研究部门是绝对必要的。在图1中,有一个从伦理研究到伦理准则、到实施细则、到应用场景再到伦理研究的闭环,这个闭环反映了人工智能伦理研究在整个创新生态中的作用。
针对3种风险,人工智能风险预测判别研究的主要任务及其必要性概述如下。
关于第一种伦理风险,事实上已经在现有人工智能和其他技术的应用中存在着,这种情况的严重性被普遍低估了,也没有受到有效的监督与管控。因此,针对数据隐私、安全性、公平性等伦理问题,亟需加强人工智能和相关技术的伦理体系建设,加强专业队伍的建设,加强针对具体伦理问题的研究,设置更高标准的相关规定,实行有效的监管和治理,这些应成为当前人工智能伦理研究与治理的重点任务。
第二种风险的近期紧迫性不强,但长期严重性绝不可低估。传统技术都不是自主的,而人工智能可以具有完全自主性。完全自主性意味着,人工智能可以完全独立于人类而实现现实世界中复杂任务的感知、决策和行动。有分析认为,具有类似于人的自我意识的完全自主的人工智能系统一旦研制出来,就会独立地自我繁殖和自我进化,并突破任何伦理规范和人类控制[18]。果真如此,允许这样的人工智能系统被研发出来,就意味着人类将被人工智能统治,也就意味着任何人工智能伦理准则都沦为空谈。当然,现有哲学分析还不是充分的科学论证,所以这种可能性尚未得到证实,但有必要认真对待。对于这种风险进行预测和判别,是一项极其艰巨、复杂且无先例的工作,关涉到人类长期生存的安全底线。
第三种风险目前没有严重表现,但潜在风险肯定是有的。以工业生产为例,一些劳动密集型产业已经在部分地区普遍出现了“用工难”现象,但这种现象并不是由于人工智能、机器人等新技术的应用引起的,而是由于大量岗位的工作性质已经变成了简单操作的机械性重复,这种作业是不符合人性的。未来的必然趋势是,愿意承担这种工作的人将越来越少,因而对人工智能、机器人技术产业应用的需求将越来越强,于是在一些行业中人工替代率将越来越高。如果无法解决再就业问题,就可能引起应用失控,产生极其严重的社会后果。由此可见,对这种风险的预测和判别是极其复杂、极其困难的,需要多学科合作和长期努力。
4面向重大社会问题的伦理性创新
人工智能的根本价值在于增加人类的福祉。在本文建议的人工智能伦理体系中,这条原则被列为基本使命,而且所有已经提出的伦理建议都包含这条准则。人类福祉的一个集中体现,是帮助解决社会面临或将来面临的重大问题,例如:气候变暖、环境污染、人口老龄化、资源分布不均、经济发展不均衡、产业少人化等。
这些重大社会问题有三个基本特点:第一,从本性上看,现有商业化机制不适合解决这类问题;第二,目前也不存在其他有效的应对手段;第三,这类问题的解决方案往往不是纯技术性的,而是综合性的,并且人工智能技术可以在其中发挥重要作用。那么,人工智能伦理如何为解决重大社会问题发挥重要作用?目前,对这个问题的研究是整个人工智能伦理建设中最为薄弱、最为欠缺的一环[19]。
本文认为,在人工智能伦理体系中的“伦理性研究”部门,应该包含两项基本职能。一项是上文提出的“风险预测判别”,另一项是“伦理性创新”。作为一种全新机制,伦理性创新将为重大社会问题的应对提供研究支撑,其主要工作任务如下。
第一,社会变化主客观数据的采集分析。在科技和产业创新飞速发展的时代,民众的生活、工作和心理状态也在快速变化,而且不同群体的主观感受、教育观念、就业倾向、消费观念、生活态度和人机关系认知等等也处于不断变化之中。目前,社会对这些信息的把握是十分有限的,这种状况对于社会的健康发展是十分不利的,亟需加以改变。因此,开发相应的人工智能和大数据等技术,及时充分地收集反映这些变化的指标数据,并与传统的产业和社会统计数据相结合,通过系统性分析得出社会状况的科学判断,对于维持社会平稳运行,更加合理地进行政策决策和规划制定,具有极其重大的现实意义,同时也为更好地应对重大社会问题奠定了必要基础。
第二,社会发展可能态势的分析预测。在未来某个时段,完全可能出现大量工作被机器取代、大批工作年龄人口无工可做的情况。这种情况下的社会结构、经济运行机理和社会发展动力,与当下社会是根本不同的。因此,在应对某些重大社会问题的过程中,未来人类很可能进入一个全新的社会文明阶段。为了保证这种社会演化符合人类的根本利益,保证宇宙万物的和谐共存,人类完全有必要未雨绸缪,而不应被动地随波逐流。对未来社会发展可能态势进行分析预测,是社会长期发展规划的必要基础。这种分析预测是非常困难的,需要多学科合作,而人工智能技术可以在其中发挥重要作用。
第三,重大社会问题解决方案的创新设计。人类面临的重大社会问题,往往难以就事论事地得到解决,需要通过综合性创新找出化解之道[20]。然而面对如此高维复杂的问题,单纯依靠人工智能技术和其他相关技术手段,是不可能自动求解的。因此,有必要探索人机合作的求解模式,而人工智能技术可以显著提升人机合作问题求解的水平和性能。例如,利用人工智能“暴力法”[21]中的“假设推理”方法,可以进行人机合作式问题求解,而且在高维复杂应用场景中已有成功案例,假设推理发现了单纯依靠人或机器都无法发现的有效的解决方案。因此,针对重大社会问题,借助人工智能技术,通过人机合作方式,完全可能发现以往无法发现的综合创新方案。在未来科技和产业革命时代,这将是人工智能伦理体系为人类做出的巨大贡献。
5结束语
在人工智能伦理准则达成的基本共识的基础上,本文提出人工智能伦理体系规划问题,重点讨论解决伦理准则无法解答而伦理体系必须解决的四个关键问题——运行机制问题、场景落地问题、风险预测判别问题和发展动力问题,并对这些问题提出了初步解决方案。
人工智能伦理体系的运行机制由它的基础架构决定,该架构规定了伦理体系的主要部门以及它们之间的相互关系,其中包括场景落地的机制。本文建议,在人工智能创新生态中增设一个新型研究部门——伦理性研究,它有两项基本职能:人工智能风险预测判别和面对重大社会问题的伦理性创新。根据这些分析和建议,在未来人工智能时代,社会进步和经济发展将进入“双轮驱动”模式,以传统的商业化创新和新设立的伦理性创新作为两个不同而相互关联的动力机制。
总之,人工智能伦理建设面临一系列挑战,不是将一般伦理学原则、方法和规则具体化到人工智能就可以奏效的。如何建立这样的人工智能伦理体系,仍需要相关各方紧密合作,进行长期、艰苦的探索。
【参考文献】
[1] TheHigh-LevelExpertGrouponAI.EthicsguidelinesfortrustworthyAI[EB/OL].(2019-04-08).https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.
[2] 傅莹.人工智能对国际关系的影响初析[EB/OL].(2019-04-10).https://pit.ifeng.com/c/7lkmTsTwMD2.
[3] 裴钢.科技伦理建设应由全人类共同参与[EB/OL].http://st.zjol.com.cn/kjjsb/201905/t20190508_10075117.shtml.
[4] LEIRuipeng,ZHAIXiaomei,ZHUWei,etal.RebootethicsgovernanceinChina[J].Nature,2019,569:184-186.
[5] 陈磊.人工智能让人类尴尬:伦理道德法律框架设计滞后[N].科技日报,2017-11-21.
[6] 蓝江.人工智能的伦理挑战[N].光明日报,2019-04-01(15).
[7] 李艳.人工智能该怎么管?八项原则来了!一文读懂[N].科技日报,2019-06-18.
[8] 熊争艳,董瑞丰.加快推动人工智能伦理研究[N].新华每日电讯,2019-03-11(06).
[9] 杨骏.超越“机器人三定律”人工智能期待新伦理[EB/OL].(2019-03-18).http://www.xinhuanet.com/tech/2019-03/18/c_1124249611.htm.
[10] 袁勇.人工智能伦理三问:如何对待机器和自身的关系?[EB/OL].(2018-07-12).http://ip.people.com.cn/n1/2018/0712/c179663-30142763.html.
[11] TheIEEEGlobalInitiativeonEthicsofAutonomousandIntelligentSystems(IEEE)[EB/OL].https://standards.ieee.org/industry-connections/ec/autonomous-systems.html
[12] 杨弃非.每经专访太和智库欧洲中心主任托斯登·耶里尼克:跨国构建人工智能伦理治理框架势在必行[N].每日经济新闻,2019-05-22.
[13] BOSTROMN,YUDKOWSKYE.Theethicsofartificialintelligence[M]//FRANKISHK,RAMSEYW.CambridgeHandbookofArtificialIntelligence.NewYork:CambridgeUniversityPress,2014.
[14] SMITHR.5coreprinciplestokeepAIethical[EB/OL].(2018-04-19).https://www.weforum.org/agenda/2018/04/keep-calm-and-make-ai-ethical/.
[15] HAOKaren.EstablishinganAIcodeofethicswillbeharderthanpeoplethink[R].Cambridge:MITTechnologyReview,2018.
[16] 万俊人.义利之间:现代经济伦理十一讲[M].北京:团结出版社,2003.
[17] Wikipedia[EB/OL].https://en.wikipedia.org/wiki/Ethics.
[18] 赵汀阳.人工智能的自我意识何以可能?[J].自然辩证法通讯,2019,41(1):1-8.
[19] 陈小平.人工智能伦理全景动态观[EB/OL].(2019-05-27).https://www.china-scratch.com/news/5403.
[20] 人民论坛理论研究中心.全局性综合创新:国内外实践经验与未来启示[EB/OL].(2017-10-17).http://www.rmlt.com.cn/2017/1017/500123.shtml.
[21] 陈小平.人工智能的历史进步、目标定位和思维演化[J].开放时代,2018(6):31-48.
(原载《智能系统学报》2019年6月)
人工智能伦理建设的目标、任务与路径:六个议题及其依据
作者:陈小平(中国科学技术大学计算机学院)
内容提要:人工智能伦理建设的必要性已形成全球共识,但建设目标、重点任务和实现路径仍存在较大分歧,概括为六个议题。本文首先介绍AI的两大类主要技术——强力法和训练法,在此基础上总结AI现有技术的三个特性,作为AI伦理的技术依据。同时,以全球公认的福祉原则作为AI伦理的根本依据。本文立足于这两个依据,阐述AI伦理建设应具有双重目标——同时回答应该和不应该让AI做什么,进而探讨另外五个重要议题:AI的安全底线,AI功能的评价原则,AI治理责任的落实路径,AI主体状况变迁的可能性,以及一种全新的创新模式——公义创新。
经过几年的广泛讨论,人工智能(ArtificialIntelligence,简称AI)伦理建设的必要性已形成全球共识。但是,关于AI伦理的建设目标、重点任务和落地路径,仍存在较大的分歧和争论,也有些关键问题尚未引起足够的重视,文本将这些内容概括为六个议题。显然,建设目标的定位将决定重点任务和落地路径的选择,从而决定AI伦理建设的发展大局。关于AI伦理建设目标的主要分歧是:AI伦理应该是双重目标(即同时回答应该和不应该让AI做什么),还是单一目标(即主要回答不应该让AI做什么)?如果是单一目标,一些重大议题将被完全或部分地排除。引起分歧和争议的一个重要原因在于,对现阶段AI技术特性的认识存在巨大差异,从而导致对AI社会意义和伦理风险的截然不同甚至完全相反的判断。为此,有必要梳理七十年来AI研究的主要进展,澄清现阶段AI技术的主要特性,形成AI伦理的技术依据。同时,以全球公认的福祉原则作为AI伦理的根本依据。本文根据这两个依据讨论AI伦理的六个议题。
一、人工智能的强力法
AI经过三次浪潮取得了大量进展,各种技术路线层出不穷,受到研究者较多关注的有两大类技术——强力法和训练法。强力法又包含推理法和搜索法两种主要类型,推理法是在知识库上进行推理,搜索法是在状态空间中进行搜索。推理法通常由一个推理机和一个知识库组成,推理机是一个负责推理的计算机程序,往往由专业团队长期研发而成,而知识库则需要研发者针对不同应用自行开发。
一般来说,推理机的工作方式是:针对输入的提问,根据知识库里的知识进行推理,给出问题的回答。下面用一个简化的例子加以说明。假设我们要用推理法回答“就餐”这个应用场景的有关问题。为此需要编写一个关于“就餐”的知识库,其中部分知识如表1所示。表1中的第一条知识是一个逻辑公式,它的含义是:餐具可以盛食物;表中的第二条知识food(rice)也是一个逻辑公式,它的含义是:米饭是食物;表中的其他知识类似。
表2列举了一些问题,比如第一个问题“hold(bowl,rice)?”问的是:碗能盛米饭吗?推理机利用知识库中的知识进行推理,可以给出此问题的回答yes。表2中的第三个问题稍微复杂一点,它问的是:碗能盛什么?回答一般不是唯一的,但推理机仍然能够根据知识库中的知识,找出所有正确的答案:碗能盛米饭、能盛汤……推理机还可以回答更复杂的问题。
值得注意的是,一般情况下,由推理机得到的回答,并不是知识库中存贮的知识。例如表2中的三个回答都是推导出来的,在知识库(表1)中并没有直接保存“碗能盛米饭”“碗能盛汤”等答案。因此,知识库推理与数据库查询不同,不是提取事先保存的答案,而是推出知识库中没有保存的答案,可见知识库加推理机的组合能力之强大。知识库上的推理被认为是一种智能功能,是其他信息技术所不具备的。
目前强力法受到一个条件的限制——封闭性。①封闭性在推理法上的具体表现是:要求存在一组固定、有限的知识,可以完全描述给定的应用场景。对于上面的“就餐”场景,如果存在着不可以盛汤的“破碗”(并且将“破碗”也当作“碗”),那么表1中的知识就不能完全描述这样的“就餐”场景,因为根据这些知识推出的某些回答(如“碗能盛汤”)在这个场景中是不正确的。
上述“就餐”场景是特意设计的一个小例子,而实际应用中的场景都很大、很复杂(否则就不必应用AI技术了),有时不满足封闭性条件。比如一个就餐场景中,一开始没有破碗,根据知识库推出的回答都是正确的;可是一段时间之后出现了破碗,根据知识库推出的某些回答就不正确了。这种情况也是不满足封闭性条件的。
关于推理法对于整个AI的重大意义,深度学习的三位领军学者GeoffreyHinton、YannLeCun和YoshuaBengio(他们共同获得2018年度图灵奖)在深度学习的总结性论文中指出:深度学习的根本性局限在于缺乏复杂推理能力。(cf.LeCunetal)而推理法代表着人类关于复杂推理能力的最高研究成果,所以推理法的局限性也代表着整个AI现有技术的局限性,封闭性对推理法的限制也是对整个AI现有技术的限制。
二、人工智能的训练法
训练法要求首先收集一组原始数据,并对其中的每一条数据都进行人工标准,做成训练数据集。然后用训练数据集训练一个人工神经元网络,用训练好的网络回答问题。
图1是一个人工神经网络的示意图。图中每一个圆圈代表一个“神经元”,每一个带箭头的线段代表神经元之间的一个“连接”。人工神经元网络就是由大量神经元和连接组成的网络。一个连接可理解为一条信息通道,并对通道中传递的信息进行加权运算;也就是说,一条连接首先从一个神经元接受输入数值,经过加权运算,再按照箭头的指向,向下一个神经元输出加权计算的结果。图1省略了所有连接上的权值。
如图1所示,一个神经元可以有多个输入连接,从而同时接受多个输入值。一个神经元也可以有多个输出连接,从而同时向多个神经元传递输出值。每个神经元能够独立地计算一个简单函数f,即根据该神经元的所有输入值,计算得出函数f的值之后,作为输出值向所有输出通道同时发送,经过各条连接上的加权运算之后,传递给其他神经元。在图1中,是整个人工神经元网络的输入连接,具体输入值来自网络外部;是整个人工神经元网络的输出,具体的输出值就是网络的计算结果。
图1一个人工神经网络示意图
图1只画出了四列神经元,其他列被省略了。每一列神经元称为一个“网络层”。如果一个人工神经网络具有很多层,比如几十层、几百层甚至更多层,就称为“深层网络”,深层网络上的机器学习称为“深度学习”。
下面以著名的ImageNet图像分类比赛中的一个任务为例,说明训练法的工作过程。在比赛之前,组织者收集了一个大型图片库,包含1400多万张图片,并将其中一部分图片做了人工标注,这些带人工标注的图片作为训练数据集,参赛队可以用这些图片训练他们的神经网络。图片库中没有标注的图片作为测试集。在比赛中,要求每一个参赛的图像分类软件,针对测试集中的大量图片,自动识别这些图片中动物或物品的种类,按识别正确率的高低决定比赛名次。
这个测试集中的图片被人工分为1000类,其中每一个类用0至999中的一个数字进行标注。一个类包含几十张到一百多张图片,这些图片中的动物或物品的种类相同,所以这些图片被标注为相同的数字。这1000个类包括7种鱼,第一种鱼的所有图片标注为0,第二种鱼的所有图片标注为1,……,第七种鱼的所有图片标注为6;还包括公鸡和母鸡,公鸡和母鸡的图片分别标注为7和8;还有26种鸟的图片分别标注为9至34等等;一直到最后一类——卫生纸图片,标注为999。原始图片和人工标注的对照见表3。采集好的原始图片经过人工标注,训练集就制作完毕,可以用于人工神经元网络的训练了。
如果训练之后,一个人工神经元网络的正确识别率达到了预定的要求(比如95%以上),就认为训练成功,可以应用了。正确识别指的是:对输入的任何一张图片,能够指认输出图片中动物或物品所对应的数字。比如输入公鸡的图片,人工神经元网络输出数字7;输入卫生纸的图片,则输出数字999。从实际效果来看,如果一个人工神经元网络达到了上述要求,就可以认为,该神经网络“学会”了识别图片中的1000类动物或物品。
训练法也受封闭性的限制,具体表现为:可以用一组固定、有限、带人工标注的代表性数据,完全描述给定的应用场景。(参见陈小平,2020年a,2020年b)所谓“代表性数据”,指的是能够代表所有其他数据的数据。例如,上面的图像分类比赛例子中,如果只用训练集中的图片训练神经网络,就可以训练出合格的网络,那么这个训练集就具有代表性,代表了图片库中所有1400多万张图片。反之,假如一个训练集不具有代表性,用它训练出的神经网络就不合格,比如正确识别率到不了预定的要求,不能实用。
普通算法通常直接计算一个函数。例如,图2中的算法计算一个自然数x是偶数还是奇数,算法规定了每一步计算过程,根据相关背景知识可以得知每一步计算的含义和作用是什么,进而判断这个算法是否正确。
通过“AI算法”与普通算法的对比发现,它们是非常不同的。具体地说,强力法中的推理法是用知识和推理解答问题,要求针对一个应用场景编写相关的知识库,然后用推理机回答问题,而不是像普通算法那样直接计算结果。训练法则要求首先采集、制作训练数据集,训练出一个合格的神经网络,然后用该网络回答问题,而网络内部的运行一般是无法解释的(至少目前如此)。
图2计算自然数奇偶性的普通算法
由此可见,AI算法不仅更复杂,更重要的是原理不同,难以直接根据一个AI算法判断它能做什么、不能做什么、怎么做的、做得是否正确等等。为此,本文给出AI现有技术的三个特性,从而为分析AI伦理的六个议题提供技术依据。
AI现有技术的第一个特性是封闭性(具体含义如上所述)。一个应用场景如果具有封闭性,则应用AI的强力法或训练法技术,可以保证应用成功;如果不具有封闭性,则不保证应用成功(但也不一定失败)。由于大量应用场景是封闭的,或者可以被封闭化,即改造为封闭的(参见陈小平,2020年a),所以封闭性条件对于大量实际应用成立,也为这些应用的研发提供了一个不可忽略的关键指标。
AI现有技术的第二个特性是被动性。这些技术不具备主动应用的能力,只能被动地被人应用。有人认为,AI可以自我学习,从而学会它原来不会做的事情。事实上,这样的技术确实在研究之中,但目前尚未成熟,无法投入使用,而且强行投入使用会带来极大风险。还有人认为,围棋AI程序“阿法狗”可以自学下围棋,而且通过自学战胜了人类。其实,围棋是一个封闭性问题,“阿法狗”技术只对封闭性场景有效(参见陈小平,2020年b),而且“阿法狗”的所谓“自学”完全是它的设计者事先安排好的,与通常人的自学不是一回事。
AI现有技术的第三个特性是价值中性,也就是说,这些技术本身无所谓善恶,人对它们的应用方式决定其善恶。以推理法为例,推理机给出的回答会不会对人有害,完全取决于知识库是否包含可能隐含不良后果的知识。由于知识库是人编写的,所以是设计者决定了推理法的具体应用的善恶。也有研究者试图让AI自动寻找自己所需的知识,即具有自动获取知识的能力(例如Chenetal,2012),但这些技术目前仍处于基础研究和实验测试阶段。
四、人工智能伦理的六个议题
议题1:AI伦理的建设目标——双重还是单一?
根据对伦理学的常识理解,伦理是人的行为准则,以及人与人之间和人对社会的义务。(参见《辞海》缩印本,第221页)因此,AI伦理要回答两方面的问题:应该让AI做什么,不应该让AI做什么。同时回答两个问题是双重目标;只回答“不应该做什么”问题是单一目标。
鉴于世界各国都将“福祉”作为AI伦理的基本原则甚至第一原则,我们将福祉原则作为AI伦理体系的指导性原则。显然,福祉的实现主要源于努力而非限制。由于AI具有被动性,AI的发展必须经过人的努力,所以AI伦理应该引导和规范这种努力,这就是双重目标的根本依据。
在双重目标下,AI伦理体系的基础架构(参见陈小平,2019年)②如图3所示。在此架构中,AI伦理有三层结构:伦理使命(福祉)、伦理准则(如安全性、公平性等)和实施细则(详见议题3)。其中,针对不同的应用场景,需要设立不同的实施细则,于是AI伦理与社会及经济发展相互紧密关联,不再是空中楼阁。在这个架构中,传统创新需要受到伦理准则的约束(这种约束过去没有充分建立起来),从而促使传统创新更好地服务于社会需求和重大社会问题的解决。
由于传统创新并不十分适合社会重大问题的解决,所以我们提出了一种新的创新模式——公义创新(详见议题6)。公义创新和传统创新都要接受福祉原则的指导,这是不变的。同时,根据公义创新的成果可以改变现有伦理准则的内涵,也可以增加或减少伦理准则,以反映社会发展对AI伦理的反作用。在两种创新的促动下,社会需求和社会重大问题不断得到解决,推动社会进步,形成新的社会需求和重大社会问题,从而实现社会及经济的螺旋式发展。
图3人工智能伦理体系架构
议题2:AI的安全底线——技术失控与技术误用?
在技术范围内,AI的伦理风险主要有两类:技术失控和技术误用/滥用。技术失控指的是人类无法控制AI技术,反而被AI所控制,成为奴隶或宠物。技术误用/滥用指的是AI技术的非正当使用,由此带来对用户和社会的损害,但达不到失控的严重程度。技术误用/滥用是目前存在的现实伦理问题,亟需加强治理;而技术失控是人们的最大担忧,相关影视作品的流行大大增强了这种担忧。
对于AI技术失控的可能性而言,上文总结的AI三个特性具有关键性影响。人类对封闭性或封闭化场景具有根本性乃至完全的掌控力,因此这些场景中的应用不会出现技术失控。根据被动性,AI技术应用都是由人类实施的,只要人类对不成熟、不安全的AI技术不实施应用,这些技术都无法进入应用空间,也就不会引起风险。根据价值中性,只要人类对AI技术的应用符合伦理准则,这些应用就不会对人类造成不可接受的损害。
因此,在AI三个特性成立,并且AI应用遵守伦理准则的情况下,不会出现技术失控,也不会对人类造成不可接受的损害。可是,在这三个特性不全成立,或者AI应用不遵守伦理准则的情况下,就可能出现伦理风险。例如,假如未来出现了可以在非封闭性场景中自主进化的AI技术,就无法排除各种伦理风险,甚至包括技术失控的可能性。(参见赵汀阳)再如,如果在AI技术应用中不遵守相关伦理准则,就会出现技术误用/滥用;数据安全问题、隐私问题、公平性问题等等,都属于这种情况,而且已经在一定范围内发生,亟需加强治理。这表明,针对技术误用/滥用的治理已经成为当务之急,而完整AI伦理体系的建设也必须提上议事日程。
议题3:AI功能的评价原则——“超越人”与“人接受”?
对AI技术的功能水平的传统评价原则是“超越人”,有时具体表现为“战胜人”,如阿法狗。不过在AI界,这个原则理解为AI与人的同类能力水平的对比,看谁的水平更高,而不是要在现实世界中用AI战胜人(虽然经常发生这种误解)。AI研究界和产业界往往认为,当AI的某项能力超过了人,那么就可以在产业中实现该能力的产品化;如果尚未超过,则表示AI的该项能力还不够强,难以实用化。
不过,在上述传统评价原则之外,实际上还存在着另一种评价原则,这就是“人接受、人喜爱”。在一些应用场景中,AI通过人—机器人交互提供服务,而且人—机器人交互以人机情感互动为基础,例如面向空巢群体的情感机器人、用于自闭症等人群心理干预的机器人、用于少儿娱乐教育的机器人等。在这些应用中,用户对机器人的接受度是第一重要的,否则产品的其他功能再好也难以被用户接受。
在接受原则下,相关AI产品的主要评价指标不是在某个方面比人强,而是人对AI的接受性和接受度是否满足用户的期望。例如,中国科学技术大学研发的情感交互机器人“佳佳”,其智能水平只是她的“姐姐”——“可佳”机器人(cf.Chenetal,2010,2012)的几分之一,但由于“佳佳”可以识别人(如用户)通过表情和话语呈现出的情绪,并通过机器人的表情和话语进行即时反馈,在一定程度上实现了机器人与人的情感互动,因而具有更高的用户接受度,在人机情感交互方面的性能远远超过“可佳”。
两种AI功能评价原则决定了人类对AI的两种观察角度和评判标准,所以它们绝不是单纯的技术问题,同时也决定了AI伦理对AI技术的观察角度和评判依据。因此,AI伦理应该同时从这两个角度展开自己的研究和实践。目前对第一个角度的研究较多,而第二个角度的研究基本处于空白状态。亟待加强。
议题4:AI治理责任的落实——规范性与自主性?
目前法学界倾向于认为,AI尚不具备法律主体地位。(参见刘洪华,2019年)因此,与AI相关的法律责任的主体是人,比如产品的研发、运维机构。因此,与AI技术相关的主体责任和治理责任的落实,就成为AI伦理的一个重要议题。
我们认为,由于AI现有技术的三个特性,法学界的上述判断是符合现阶段实际情况的,AI确实不应该、也不可能承担主体责任。另一方面,只要伦理规范足够具体化,以至于成为封闭性条件的一部分,那么在这种场景中,就可以利用AI现有技术,自主地执行这些规范,从而完成部分AI治理任务。对于非封闭的应用场景,或者伦理规范不能成为封闭性条件的一部分的情况下,则不能完全依靠AI技术的自主性,必须坚持人的管理和介入。总体上,人作为责任主体,绝不能放弃自己的职责。
根据以上分析可知,在伦理规范和管理体制下,让AI技术自主或半自主地实现其功能,是一种有效的责任落实方式。例如,利用AI技术,可以对消息的真伪性进行核查和推测,对通过核查的真实消息向目标用户进行分发推送,对敏感操作流程的合规性进行审核,等等。不过,由于这些应用的场景往往不是完全封闭的,所以仍然需要人工管理,但AI技术的应用能够大大减轻人工负担,显著提高工作效率,整体上明显改善管理水平。
产业部门的现行管理体制为主体责任的落实提供了一条可行路径,尤其其中的技术标准可以作为AI伦理准则的一种实施细则(见图3)。对于AI相关产品,需要与其他工业品一样,设立四个层级的技术标准:国际标准、国家标准、行业标准和企业标准,其中企业标准和行业/团体/地方标准不得与国家标准相抵触,而国家标准与国际标准之间,可以通过国际标准化合作达成协调一致。所有这些层级的技术标准都应符合AI伦理规范的要求。这样,伦理规范就通过技术标准及相关管理机制得到落实,不再是纸上谈兵的空中楼阁。
议题5:AI主体状况变迁的可能性——物、人还是“非人非物”?
上文已说明,目前AI在法律上是物,不是人。但是,由于大量应用需求的推动,以及“接受”评价原则的采纳及相关研究的深入和成果推广,AI技术的发展已形成了一种新的可能性:在不远的将来,某些AI产品或技术载体如情感交互机器人,会被部分大众接受为“非人非物、亦人亦物”的第三种存在物。
在AI发展早期,曾出现少数用户将AI误认为人的情况,比如上世纪60年代有人将一个AI对话系统误认为人。不过,这是在人与物的二分法体系之中出现的混淆,没有突破二分法的边界。而现在出现的情况是,人在与某些机器人的交互中,一方面从理智上明确认识到和自己交互的机器人不是人,同时却在情感中不将机器人视为物,而更倾向于视为某种有情感能力的新型存在物。这种情况实际上比之前的要更复杂。
出现这种现象的原因在于:与科学和哲学中的默认假设不同,人们通常并不关心机器人表现出的情绪是不是真实的人的情绪,更不去仔细区分人的情绪和机器人的情绪有什么本质区别。(参见胡珉琦)
这种现象带来三方面的可能性。第一,有助于AI在某些领域的应用推广,满足用户的大量真实需求(尤其是情感交互方面的需求),从而带来AI研究和应用的新机遇;第二,为调整、拓展和改善人机关系开辟了新的探索空间;第三,带来一种新的伦理挑战——对自古以来从未受到怀疑的人—物二分法的挑战。虽然科学上可能不承认这种存在物的真实性,哲学上也不承认它的必要性,但如果越来越多的大众在认知和心理上接受这种存在物,就会形成一种普遍和重要的社会现象,甚至可能对人机关系和人际关系产生广泛的、震撼性的冲击和深远的影响。因此,忽视这些可能性将会造成AI伦理大厦的巨大缺口。AI伦理的双重目标要求对正、反两方面的可能性展开积极探索。
议题6:AI时代的创新模式——传统创新与公义创新?
在图3所示的AI伦理体系架构中,一个核心部分是公义创新。与传统创新(参见黄阳华)相比,公义创新的主要内涵及特点如下。
第一,传统创新主要追求经济效益的显著增长,而公义创新追求经济效益和社会效益的协同提升。传统创新带来经济效益的显著增长是有目共睹的。与此同时,诸多重大社会问题不断积累和深化,包括气候变化、环境污染、人口老化、收入不均、大规模流行病等等。甚至有人认为,正是传统创新加剧了这些问题的恶化。作为对传统创新模式的反思和超越,公义创新将以经济效益和社会效益的协同提升为基本目标,以重大社会问题的解决为重点任务,改变经济效益和社会效益相互脱节的现象。在现代社会中,公益事业与商业创新是相互分离的,科技成果相对易于进入商业创新,不易进入公益事业,公益事业与商业创新的这种分立式组合,明显不利于重大社会问题的解决。
第二,传统创新的目标对象是满足用户需求的具体产品/服务,而公义创新的目标对象是符合社会发展需要的人工/人造系统。③满用户需求、且具有显著经济利益的产品/服务这个目标对象贯穿于传统创新的全流程,是该流程一切环节的终极考核指标,因而难以避免各种损害社会效益的副作用。因此,公益创新将不再以产品/服务本身作为目标对象,而是上升到人工/人造系统(参见司马贺,第30页)层面,并且全面重构人工/人造系统的设计—实施体系,将其改造为实现经济效益和社会效益综合提升的手段。
例如,很多高新技术的应用在提高经济效益的同时,也带来人工岗位的大量减少,④并可能导致新的收入分化,这种情况在传统创新中比较普遍。而在公义创新的设计考虑中,一个人工/人造系统包含的要素有:产品/服务、制造方式、员工利益、用户利益……于是,设计方案的评价指标不仅反映经济效益,同时也反映社会效益。显然,这种人工/人造系统的设计和实施难度远远高于传统的产品设计和制造。为此,不仅需要将AI技术继续应用于产品设计环节(类似于传统创新),更需要将“规划”(参见李德毅,第216页)、机制设计、目标优化等AI技术应用于整个人工/人造系统的设计,从而使AI技术发挥更大的作用,帮助人类发现或创造社会经济发展的更多新机遇,如新的就业岗位、新的人机合作方式、新的生产—生活协同方式以及解决重大社会问题的新途径。
第三,传统创新延续、强化工业文明传统,而公义创新探索更具包容性的文明路径。除上面提到的问题之外,传统创新通过延续、强化工业文明传统,进一步加剧了人的异化、人机对立等长期存在的难题,甚至可能产生“无用阶层”(参见巩永丹)等文明层面的重大挑战。尤为重要的是,这些挑战性问题在工业文明传统下是无解的,因此有必要探索新的化解路径。公义创新的思想来源包括三个方面:历史观——道家哲学(特别是老子的“道”),文化观——儒家哲学(特别是孔子的“义”),社会观——希腊哲学,如梭伦的“正义”理论。(参见廖申白)这些不同文化传统的融合、发展将构成公义创新的理论基础,并在其上构建公义创新的方法论体系,最终形成可运行的公义创新模式。在这种新模式下,对人的关注将得到根本性加强,对人和机器的认识将大幅度更新,人与机器的关系将得到重新定义,并在福祉原则的指导下,推动人、机器和环境的更具包容性的一体化发展。
显然,在现行市场规则下,公义创新面临很多困难,因此公义创新的实行要求改变市场规则和管理方式。其次,公义创新也要求设计思维、教育理念及实践的彻底变革,并带来人的观念的重大变革。事实上,公义创新的实施将为社会经济发展带来大量新机遇。
为了实现其基本使命——增进人类福祉,AI伦理要能够同时解答两方面的问题:应该让AI做什么,不应该让AI做什么,所以AI伦理具有双重目标。根据双重目标,结合AI现有技术的特性,本文认为短期内AI的主要风险是技术误用/滥用,这应成为近期AI伦理治理的重点课题。同时,本文分析了AI功能评价的两种原则——超过人和人接受,需要同时从这两个角度展开AI伦理治理。针对以上任务,本文发现,在现行产业管理及技术标准体系的基础上加以扩展,在适当条件下将AI技术引入到管理过程中,可以更加有效地实施AI伦理治理,从而形成落实AI治理责任的一条切实可行的路径。一个较长期的挑战是AI主体状况的变迁,即某些类型的AI被部分人接受为“非人非物、亦人亦物”的可能性,由此带来从技术到人机关系再到AI法制的一系列新课题。另一个更大的挑战是面向重大社会问题,以经济效益和社会效益的协调统一为基本追求的公义创新,它在人类福祉原则的指导下,广泛深入地利用AI技术,将传统的产品设计和制造升级为人工/人造系统的设计和实施,这也是双重目标下AI伦理体系建设的最大特色和最终标志。
*本文根据作者在“第二届全球视野下的人工智能伦理论坛”(杭州,2020年7月25日)上的演讲整理而成。作者在与赵汀阳、王蓉蓉关于AI伦理问题的讨论中受益良多。本文部分素材来自《人工智能伦理导引》(陈小平主编,中国科学技术大学出版社2020年),刘贵全、顾心怡、叶斌、汪琛、王娟、侯东德、苏成慧参与了该书编著。谨向以上诸位表示感谢。
注释:
①关于封闭性具体内涵的详细描述,通俗性介绍参见陈小平,2020年a;专业性介绍参见陈小平,2020年b。
②原文引入了“伦理创新”的术语,后经王蓉蓉建议,改为“公义创新”,但内涵保持不变。
③“人工”的例子如“人工降雨”,其结果(降下来的雨)是“真的”(自然的),而导致这个结果的过程是人为的(非自然的);“人造”的例子如“人造卫星”,其结果(卫星)及其过程都不是“真的”。AI中的Artificial包含人工和人造两种类型,公义创新的目标对象也包括人工系统和人造系统。
④对此需要具体情况具体分析,比如目前在国内工业界,机器人替代的劳动岗位主要是工作环境恶劣、不适合人从事的工种,如喷漆、打磨等。值得重点关注的是经济效益与社会效益不一致的情况。
原文参考文献:
[1]陈小平,2019年:《人工智能伦理体系:基础架构与关键问题》,载《智能系统学报》第4期。
2020年a:《封闭性场景:人工智能的产业化路径》,载《文化纵横》第1期。
2020年b:《人工智能中的封闭性和强封闭性——现有成果的能力边界、应用条件和伦理风险》,载《智能系统学报》第1期。
[2]《辞海》(缩印本),1979年,上海辞书出版社。
[3]巩永丹,2019年:《人工智能催生“无用阶级”吗?——赫拉利“无用阶级”断想引发的哲学审度》,载《国外理论动态》第6期。
[4]胡珉琦,2020年:《AI与情感》,载《中国科学报》7月23日。
[5]黄阳华,2016年:《熊彼特的“创新”理论》,载《光明日报》9月20日。
[6]李德毅主编,2018年:《人工智能导论》,中国科学技术出版社。
[7]廖申白,2002年:《西方正义概念:嬗变中的综合》,载《哲学研究》第1期。
[8]刘洪华,2019年:《论人工智能的法律地位》,载《政治与法律》第1期。
[9]司马贺(HerbertSimon),1987年:《人工科学》,商务印书馆。
[10]赵汀阳,2018年:《人工智能会是一个要命的问题吗?》,载《开放时代》第6期。
[11]Chenetal,2010,"DevelopingHigh-levelCognitiveFunctionsforServiceRobots",inProc.of9thInt.Conf.onAutonomousAgentsandMulti-agentSystems(AAMAS2010),Toronto,Canada.
2012,XiaopingChen,JiongkunXie,JianminJi,andZhiqiangSui,"TowardOpenKnowledgeEnablingforHuman-RobotInteraction",inJournalofHuman-RobotInteraction1(2).
来源:《哲学研究》
全球数治|首份人工智能伦理全球协议的两项关键共识
这里是“全球数治”专栏周报,追踪近期全球数字治理动态11月24日,联合国教科文组织(UNESCO)在第41届大会上通过了首份关于人工智能伦理的全球协议《人工智能伦理问题建议书》(以下简称《建议书》),供193个成员国采用。《建议书》定义了关于人工智能技术和应用的共同价值观与原则,用以指导建立必需的法律框架,确保人工智能的良性发展,促进该项技术为人类、社会、环境及生态系统服务,并预防潜在风险。作为引领第四次科技革命的关键技术创新,人工智能给全球社会和经济发展带来了重大而深远的正面影响,例如增加生活便利和民生福祉、提升政府和企业运营效率、帮助应对气候变化和贫困饥饿问题。然而,该项技术同时也带来了前所未有的严峻挑战,包括对个人隐私和尊严的重大威胁,性别和种族偏见加剧,大规模监控风险激增等。鉴于该项技术在实际应用过程中兼具创造性和破坏性,但却长期缺乏全球通用的治理标准,UNESCO于2018年发起“为世界打造运用人工智能的伦理框架”项目,遴选24名来自世界各国的专家历时三年共同撰写完成《人工智能伦理建议书》,并经过193个成员国之间超过100小时的多边谈判和反复修订,最终于今年11月获得通过。这不仅是全球首个针对人工智能伦理的规则框架和共同纲领,也是当前在世界各国政府层面达成的最广泛共识,为下一步制定规范人工智能发展的具体国际法规和技术标准提供了强有力支撑,堪称多边主义的又一次胜利。《建议书》所建立的人工智能伦理框架主要由价值观、伦理原则和政策指导三部分组成,文本内容十分全面,注重多方观念和利益的平衡。其中,人工智能的价值观强调:一、尊重、保护和促进人权、基本自由及人的尊严;二、保护环境和生态系统的蓬勃发展;三、确保多样性和包容性;四、在和平、公正与互联的社会中共生。伦理原则主要包含:相称性和不损害、保障安全、公平和非歧视、可持续性、隐私权和数据保护、人类监督和决定、透明度和可解释性、责任与问责、技术认知和素养、多利益攸关方协同治理等10方面。政策指导则涉及伦理影响评估、伦理治理和管理、数据政策、发展与国际合作、环境和生态系统、性别、文化、教育和研究、传播和信息、经济和劳动、健康和社会福祉、监测与评估共12个细分领域。同时,《建议书》鼓励所有成员国考虑增设独立的人工智能伦理官员或其它相关机制,以监督审计和持续监测应用该技术带来的影响。在全面考虑和广泛涵盖的基础上,《建议书》最为核心的内容集中于呼吁各国采取数据保护行动、禁止社会评分和大规模监控、监测和评估人工智能系统的社会及环境影响等。并且,《建议书》在这些问题上没有一味遵从西方人工智能技术先发国家的既有标准,而是通过编撰过程中的区域性专家咨询会、政府间专家磋商、各成员国意见征集等环节来广泛听取和采纳中国等发展中国家的意见和建议,努力平衡价值差异,推动形成多边共识。其中,有两项共识尤为关键。首先,《建议书》将“可持续发展”确定为全球人工智能发展的总体愿景和重要途径,主张发展人工智能技术和应用都以有利于实现可持续发展目标为优先导向,且需要密切关注和防范阻碍该目标实现的各类风险。同时,《建议书》不囿于应当“发展先行”还是“治理先行”的争论,强调两者相互协同,使人工智能系统在整个生命周期内都可以赋能人类、社会、生态之间的和谐共生。其次,在人工智能伦理和治理范式创新方面,《建议书》倡导“协同共治”的路径选择。《建议书》强调,诸如人脸识别、自动化决策、社会评分等人工智能应用带来的伦理挑战不可能仅通过禁止使用来解决问题,而是要将基于多边共识的伦理标准贯穿于人工智能系统设计、研发、部署、使用的全部过程,并适配相应的治理规则和手段,实现防患于未然。与此同时,人工智能治理单靠政府或政府间合作并不能有效实现,而是要依靠整个技术生态系统中的多方深度协同。政府、企业、研发、用户、学术界、媒体等利益相关方都需要担负起相应责任,开展全流程协同共治。UNESCO通过相对平等而广泛的公共讨论促成了《建议书》及首个全球人工智能伦理框架的确立。这不仅凝聚了全世界193个国家对这项新兴技术的可持续发展共识,也进一步打开了未来多边协同治理的新前景。下一步,还需要将其中的价值观、原则和政策加以落地,推动各国形成可执行的标准和细则,将理念化为行动,使理想融入现实。规则美欧启动联合应对技术竞争政策对话12月7日,欧盟委员会执行副主席玛格丽特·维斯塔格、美国联邦贸易委员会主席莉娜·汗和美国司法部反垄断助理总检察长乔纳森·坎特在华盛顿启动了美欧联合应对技术竞争政策对话并发表联合声明,以加强双方在快速发展的技术领域内的政策协调和共同执法。声明指出,美欧坚持共同的民主价值观和对良性市场竞争的信念,在数字竞争执法领域面临网络效应、海量数据、互操作性等共同挑战。因此,美欧将在政策和执法方面进一步加强协调。英国发布算法透明度的开创性标准11月29日,英国中央数字办公室(CDDO)发布了算法透明度标准,旨在为政府部门和公共机构提供用于支持决策的算法工具的明确信息,兑现其在国家数据战略和国家人工智能战略中做出的承诺。算法透明度标准涵盖透明度数据标准,透明度模板和行动指南等,将有助于帮助组织提高算法工具的透明性。缅甸罗兴亚难民因暴力事件起诉Facebook,要求赔偿1500亿美元12月6日,缅甸的一个罗兴亚难民团体在美国提起一项集体诉讼,指控社交媒体平台Facebook促进了针对受迫害的少数群体的暴力,要求Facebook赔偿1500亿美元。Facebook表示,虽然以前没有及时防止错误信息和仇恨言论传播,但事后已采取补救措施,包括在2月1日缅甸政变后禁止军方使用Facebook和Instagram。Facebook曾表示,它受到美国互联网法“第230条”的保护,免于对用户发布的内容承担责任。罗兴亚难民团体则表示,如果Facebook提出“第230条”作为抗辩理由,他们将寻求通过缅甸法律进行索赔。政策美国防部拟重组三个关键技术办公室12月1日,美国防部宣布将把国防部数字服务局、联合人工智能中心及首席数据官办公室重组为首席数据与人工智能官办公室,以简化流程,并为使用人工智能与数据创造出更具凝聚力的方法。根据拟议计划,三个办公室仍保持独立,但都向新办公室报告。此举将为三个办公室提供更清晰的组织结构,帮助其掌握更多数据并应用于人工智能,进而推动联合全域指挥控制工作。工信部预测2025年中国大数据产业规模将突破3万亿元11月30日,国家工信部召开新闻发布会,介绍《“十四五”大数据产业发展规划》相关情况。《规划》提出,到2025年,我国大数据产业规模预计将突破3万亿元,年均复合增长率保持25%左右,创新力强、附加值高、自主可控的现代化大数据产业体系基本形成。《规划》就加快培育数据要素市场、发挥大数据特性优势、夯实产业发展基础、构建稳定高效产业链、打造繁荣有序产业生态、筑牢数据安全保障防线等六个方面设定了重点任务,并安排了数据治理能力提升、重点标准研制及应用推广、工业大数据价值提升、行业大数据开发利用、企业主体发展能级跃升、数据安全铸盾共六个专项行动。此外,《规划》还提出加快构建全国一体化大数据中心体系,推进国家工业互联网大数据中心建设,引导大中小企业融通发展和产业链上下游协同创新,支持传统企业开展大数据业务剥离重组。监管美国联邦贸易委员会对英伟达公司收购ARM的交易提起诉讼12月2日,美国联邦贸易委员会(FTC)宣布,已经以反垄断为由提起诉讼,旨在阻止英伟达公司以400亿美元价格收购ARM的计划。FTC认为,这笔交易将会扼杀云计算、数据中心和自动驾驶汽车等各种技术的市场创新,并将“不公平地削弱”英伟达的竞争对手。这起诉讼是英伟达收购ARM交易在监管方面遭遇的又一次打击。此前,英国政府和欧盟委员会已经开始对该笔交易展开深入的反垄断调查。产业与技术Meta与亚马逊AWS达成云服务合作协议12月1日,Meta公司宣布与亚马逊公司云服务部门(AWS)达成合作,将AWS作为其长期战略云服务提供商,扩大对AWS计算、存储、数据库和安全服务的使用范围,以补充Meta现有的本地基础设施。Meta还将使用AWS的计算服务来加速其AI团队的研发工作,并将在AWS平台上运行第三方合作应用。城市数字化国务院发文支持北京城市副中心大力发展数字经济,推进智慧城市建设 11月26日,国务院发布关于支持北京城市副中心高质量发展的意见。意见提出,到2025年,城市副中心绿色城市、森林城市、海绵城市、智慧城市、人文城市、宜居城市功能将基本形成。意见明确,强化科技创新引领,聚焦新一代信息技术、智能制造等领域,实施一批国家重大科技项目和应用示范项目,引导创新链、产业链在城市副中心及周边地区布局,大力发展数字经济。围绕第五代移动通信(5G)网络、人工智能、云计算、大数据、互联网协议第6版(IPv6)等加紧布局数字新基建,在智慧城市、数字乡村建设等领域建成一批示范应用新场景,支持开展科技应用场景沙盒试点。美国巴尔的摩市计划建设普惠智能网络以缩小数字鸿沟11月30日,美国巴尔的摩市长办公室宣布,将拨款3500万美元为受公共卫生紧急情况影响最严重的社区和居民提供网络接入方面的救济。其中,首笔600万美元将用于大幅扩大公共互联网接入,以缩小城市中的数字鸿沟。鉴于互联网接入已成为最为关键和基本的公共基础设施,实现网络接入公平成为未来智慧城市的关键内涵之一。巴尔的摩市计划在未来十年间持续投资于在全市范围内建设开放、普惠的智能网络基础设施,以确保每位市民都能平等、便捷的接入互联网。海量资讯、精准解读,尽在新浪财经APP欧盟人工智能伦理与治理的路径及启示
作者|曹建峰 腾讯研究院高级研究员
方龄曼腾讯研究院法律研究中心助理研究员
欧盟积极推进以人为本的人工智能伦理与治理
数字技术的发展和渗透加速了社会与经济的转型变革,人工智能(AI)作为其中的核心驱动力为社会发展创造了更多可能。一般而言,AI是指基于一定信息内容的投入实现自主学习、决策和执行的算法或者机器,其发展是建立在计算机处理能力提高、算法改进以及数据的指数级增长的基础上。从机器翻译到图像识别再到艺术作品的合成创作,AI的各式应用开始走进我们的日常生活。当今,AI技术被广泛运用于不同行业领域(如教育、金融、建筑和交通等),并用于提供不同服务(如自动驾驶、AI医疗诊断等),深刻变革着人类社会。与此同时,AI的发展也对法律、伦理、社会等提出挑战,带来了假新闻、算法偏见、隐私侵犯、数据保护、网络安全等问题。在此背景下,人工智能伦理与治理日益受到重视,从政府到行业再到学术界,全球掀起了一股探索制定人工智能伦理准则的热潮。而欧盟从2015年起就在积极探索人工智能伦理与治理举措,虽然在AI技术的发展上没能先发制人,AI治理方面却走在了世界前沿。
早在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立专门研究机器人和人工智能发展相关法律问题的工作小组。2016年5月,JURI发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(DraftReportwithRecommendationstotheCommissiononCivilLawRulesonRobotics),呼吁欧盟委员会评估人工智能的影响,并在2017年1月正式就机器人民事立法提出了广泛的建议,提出制定「机器人宪章」。[1]2017年5月,欧洲经济与社会委员会(EESC)发布了一份关于AI的意见,指出AI给伦理、安全、隐私等11个领域带来的机遇和挑战,倡议制定AI伦理规范,建立AI监控和认证的标准系统。[2]同年10月,欧洲理事会指出欧盟应具有应对人工智能新趋势的紧迫感,确保高水平的数据保护、数字权利和相关伦理标准的制定,并邀请欧盟委员会在2018年初提出应对人工智能新趋势的方法。[3]为解决人工智能发展和应用引发的伦理问题,欧盟已将AI伦理与治理确立为未来立法工作的重点内容。
2018年4月25日,欧盟委员会发布政策文件《欧盟人工智能》(ArtificialIntelligentforEurope),欧盟人工智能战略姗姗来迟。该战略提出以人为本的AI发展路径,旨在提升欧盟科研水平和产业能力,应对人工智能和机器人带来的技术、伦理、法律等方面的挑战,让人工智能更好地服务于欧洲社会和经济的发展。欧盟人工智能战略包括三大支柱:其一、提升技术和产业能力,促进人工智能技术广泛渗透到各行各业;其二、积极应对社会经济变革,让教育和培训体系跟上时代发展的步伐,密切监测劳动力市场的变化,为过渡期劳动者提供支持,培养多元化、跨学科人才;其三、建立适当的伦理和法律框架,阐明产品规则的适用,起草并制定人工智能伦理指南(AIethicsguidelines)。[4]同年6月,欧盟委员会任命52名来自学术界、产业界和民间社会的代表,共同组成人工智能高级专家小组(High-LevelExpertGrouponAI,简称AIHELP),以支撑欧洲人工智能战略的执行。
2019年1月,欧盟议会下属的产业、研究与能源委员会发布报告,呼吁欧盟议会针对人工智能和机器人制定全方位的欧盟产业政策,其中涉及网络安全、人工智能和机器人的法律框架、伦理、治理等。[5]2019年4月,欧盟先后发布了两份重要文件——《可信AI伦理指南》(EthicsGuidelinesforTrustworthyAI,简称「伦理指南」)[6]和《算法责任与透明治理框架》(Agovernanceframeworkforalgorithmicaccountabilityandtransparency,简称「治理框架」)[7],系欧盟人工智能战略提出的「建立适当的伦理和法律框架」要求的具体落实,为后需相关规则的制定提供参考,代表欧盟推动AI治理的最新努力。
人工智能伦理框架建构:可信AI的伦理指南
为平衡技术创新和人权保障,人工智能伦理框架的构建必不可少。伦理框架为人工智能的设计、研发、生产和利用提供原则指导和基本要求,确保其运行符合法律、安全和伦理等标准。《伦理指南》由AIHELP起草发布,并不具备强制约束力,而欧盟鼓励各利益攸关方积极执行《伦理指南》,促进AI伦理标准形成国际共识。总体而言,除了制定泛欧盟的伦理准则,欧盟希望人工智能的伦理治理能够在不同的层次得到保障。例如,成员国可以建立人工智能伦理监测和监督机构,鼓励企业在发展人工智能的时候设立伦理委员会并制定伦理指南以便引导、约束其AI研发者及其研发应用活动。这意味着人工智能的伦理治理不能停留在抽象原则的层面,而是需要融入不同主体、不同层次的实践活动中,成为有生命的机制。
根据《伦理指南》,可信AI必须具备但不限于三个特征:(1)合法性,即可信AI应尊重人的基本权利,符合现有法律的规定;(2)符合伦理,即可信AI应确保遵守伦理原则和价值观,符合「伦理目的」;(3)稳健性,即从技术或是社会发展的角度看,AI系统应是稳健可靠的,因为AI系统即使符合伦理目的,如果缺乏可靠技术的支撑,其在无意中依旧可能给人类造成伤害。具体而言,可信AI的伦理框架包括以下三个层次:
(一)可信AI的根基
在国际人权法、欧盟宪章和相关条约规定的基本权利中,可作为AI发展要求的主要包括:人格尊严、人身自由、民主、正义和法律、平等无歧视和团结一致、公民合法权利等。许多公共、私人组织从基本权利中汲取灵感,为人工智能系统制定伦理框架。例如,欧洲科学和新技术伦理小组(EGE)基于欧盟宪章和相关规定中的价值观,提出了9项基本原则。《伦理指南》在借鉴绝大部分已有原则的基础上,进一步归纳总结出符合社会发展要求的4项伦理原则,并将其作为可信AI的根基,为AI的开发、部署和使用提供指导。
这些原则包括:(1)尊重人类自主性原则。与AI交互的人类必须拥有充分且有效的自我决定的能力,AI系统应当遵循以人为本的理念,用于服务人类、增强人类的认知并提升人类的技能。(2)防止损害原则。AI系统不能给人类带来负面影响,AI系统及其运行环境必须是安全的,AI技术必须是稳健且应确保不被恶意使用。(3)公平原则。AI系统的开发、部署和使用既要坚持实质公平又要保证程序公平,应确保利益和成本的平等分配、个人及群体免受歧视和偏见。此外,受AI及其运营者所做的决定影响的个体均有提出异议并寻求救济的权利。(4)可解释原则。AI系统的功能和目的必须保证公开透明,AI决策过程在可能的范围内需要向受决策结果直接或间接影响的人解释。
(二)可信AI的实现
在AI伦理原则的指导下,《伦理指南》提出AI系统的开发、部署和利用应满足的7项关键要求。具体而言,在《伦理指南》中4项伦理原则作为顶层的伦理价值将对可信AI的研发与应用发挥最基本的指导作用,但7项关键要求则是可以落地的伦理要求。这意味着人工智能伦理是一个从宏观的顶层价值到中观的伦理要求再到微观的技术实现的治理过程。
1、人类的能动性和监督
首先,AI应当有助于人类行使基本权利。因技术能力范围所限AI存在损害基本权利可能性时,在AI系统开发前应当完成基本权利影响评估,并且应当通过建立外部反馈机制了解AI系统对基本权利的可能影响。其次,AI应当支持个体基于目标作出更明智的决定,个体自主性不应当受AI自动决策系统的影响。最后,建立适当的监督机制,例如「human-in-the-loop」(即在AI系统的每个决策周期都可人为干预),「human-on-the-loop」(即在AI系统设计周期进行人工干预),以及和「human-in-command」(监督AI的整体活动及影响并决定是否使用)。
2、技术稳健性和安全
一方面,要确保AI系统是准确、可靠且可被重复实验的,提升AI系统决策的准确率,完善评估机制,及时减少系统错误预测带来的意外风险。另一方面,严格保护AI系统,防止漏洞、黑客恶意攻击;开发和测试安全措施,最大限度地减少意外后果和错误,在系统出现问题时有可执行的后备计划。
3、隐私和数据治理
在AI系统整个生命周期内必须严格保护用户隐私和数据,确保收集到的信息不被非法利用。在剔除数据中错误、不准确和有偏见的成分的同时必须确保数据的完整性,记录AI数据处理的全流程。加强数据访问协议的管理,严格控制数据访问和流动的条件。
4、透明性
应确保AI决策的数据集、过程和结果的可追溯性,保证AI的决策结果可被人类理解和追踪。当AI系统决策结果对个体产生重大影响时,应就AI系统的决策过程进行适当且及时的解释。提升用户对于AI系统的整体理解,让其明白与AI系统之间的交互活动,如实告知AI系统的精确度和局限性。
5、多样性、非歧视和公平
避免AI系统对弱势和边缘群体造成偏见和歧视,应以用户为中心并允许任何人使用AI产品或接受服务。遵循通用设计原则和相关的可访性标准,满足最广泛的用户需求。同时,应当促多样性,允许相关利益相关者参与到AI整个生命周期。
6、社会和环境福祉
鼓励AI系统负担起促进可持续发展和保护生态环境的责任,利用AI系统研究、解决全球关注问题。理想情况下,AI系统应该造福于当代和后代。因此AI系统的开发、利用和部署应当充分考虑其对环境、社会甚至民主政治的影响。
7、问责制
其一,应建立问责机制,落实AI系统开发、部署和使用全过程的责任主体。其二,建立AI系统的审计机制,实现对算法、数据和设计过程评估。其三,识别、记录并最小化AI系统对个人的潜在负面影响,当AI系统产生不公正结果时,及时采取适当的补救措施。
值得注意的是,不同的原则和要求由于涉及到不同利益和价值观,互相间可能存在本质上的紧张关系,因此决策者需要根据实际情况作出权衡,同时保持对所做选择的持续性记录、评估和沟通。此外,《伦理指南》还提出了一些技术和非技术的方法来确保AI的开发、部署和使用满足以上要求,如研究开发可解释的AI技术(ExplainableAI,简称XAI)、训练监控模型、构建AI监督法律框架、建立健全相关行业准则、技术标准和认证标准、教育提升公众伦理意识等。
(三)可信的AI的评估
《伦理指南》在前述7项关键要求的基础上,还列出了一份可信AI的评估清单。评估清单主要适用于与人类发生交互活动的AI系统,旨在为具体落实7项关键要求提供指导,帮助公司或组织内不同层级如管理层、法务部门、研发部门、质量控制部门、HR、采购、日常运营等共同确保可信AI的实现。《伦理指南》指出,该清单的列举评估事项并不总是详尽无遗,可信AI的构建需要不断完善AI要求并寻求解决问题的新方案,各利益攸关方应积极参与,确保AI系统在全生命周期内安全、稳健、合法且符合伦理地运行,并最终造福于人类。
可见,在欧盟看来,人工智能伦理是一项系统性的工程,需要伦理规范和技术方案之间的耦合。其他国家和国际社会的人工智能伦理构建可能多数还停留在抽象价值的提取和共识构建阶段,但欧盟已经更进一步,开始探索搭建自上而下的人工智能伦理治理框架。
人工智能算法治理的政策建议:
算法责任与透明治理框架《治理框架》是由欧洲议会未来与科学和技术小组(STOA)发布的一份关于算法透明和责任治理的系统性研究报告。报告在引用一系列现实案例的基础上,阐明不公平算法产生的原因及其可能导致的后果,以及在特定背景下实现算法公平所存在的阻碍。在此基础上,报告提出将算法透明和责任治理作为解决算法公平问题的工具,实现算法公平是算法治理的目的,同时强调「负责任研究和创新」(RRI)方法在促进实现算法公平中的作用和意义。RRI的核心是在利益相关者的参与下,实现包容和负责任的创新。该报告在分析算法系统为社会、技术和监管带来的挑战的基础上,为算法透明度和问责制的治理提出系统的的政策建议。报告从技术治理的高层次视角出发,详细论述各类型的治理选择,最后回顾现有文献中对算法系统治理的具体建议。在广泛审查和分析现有算法系统治理建议的基础上,报告提出了4个不同层面的政策建议。
(一)提升公众的算法素养
实现算法问责的前提是算法透明,算法透明并非指让公众了解算法的各个技术特征。报告指出,对算法功能的广泛理解对实现算法问责几乎没有作用,而简短、标准化且涉及可能影响公众决策或者提升公众对算法系统的整体理解的信息内容的披露才更为有效。此外,调查性新闻报道和揭密对于揭发算法的不当用途,实现算法透明和问责也发挥着重要作用。例如,纽约时报曾经报道Uber公司通过一定算法技术来标记和躲避城市的监管机构(此消息由Uber前员工透露),此报道当即引发了媒体和社会的广泛关注,监管部门也对该公司采取调查行动。除了发挥监督作用,新闻报道致力于用简单易懂的语言提升社会公众对算法的理解,新闻调查还可刺激广泛的社会对话和辩论,引发新的学术研究。例如,非盈利机构ProPublica的一篇关于一些美国法院使用的犯罪风险评估算法系统COMPAS中「机器偏见」的报告即引发了一系列关于算法公平的研究。
基于此,《治理框架》提出几点关于提升公众算法意识的政策建议:(1)教育公众理解关于算法选择、决策的核心概念;(2)标准化算法的强制披露内容;(3)为进行「算法问责」的新闻报道提供技术支持;(4)出于公共利益考虑允许揭秘人在违反服务条款或者侵犯知识产权情况下免于追究责任。
(二)公共部门建立算法问责机制
当今,越来越多公共部门开始使用算法系统以提高办公效率、支撑复杂的办公流程并辅助政策制定活动。若算法存在缺陷,则可能对社会中弱势群体造成不可估量的影响,因此公共部门格外需要建立完善的算法透明和问责机制。其中一个可以考虑的治理机制是,借鉴数据保护法上的数据保护影响评估(DPIA)机制,建立算法影响评估(Algorithmicimpactassessments,即AIA)机制。此机制可以让政策制定者了解算法系统的使用场景,评估算法预期用途并提出相关建议,帮助建立算法问责机制。根据《治理框架》,AIA的流程主要包括:公布公共部门对「算法系统」的定义,公开披露算法的目的、范围、预期用途、相关政策或实践,执行和发布算法系统的自我评估,公众参与,公布算法评估结果,定期更新AIA等。
(三)完善监管机制和法律责任制度
一方面,对于各界广泛呼吁但存在巨大争议的算法透明,欧盟从人工智能技术自身的特征出发提出了较为中肯的建议。算法透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。更进一步,考虑到AI的技术特征,理解AI系统整体是异常困难的,对理解AI作出的某个特定决策也收效甚微。所以,对于现代AI系统,通过解释某个结果如何得出而实现透明将面临巨大的技术挑战,也会极大限制AI的应用;相反,在AI系统的行为和决策上实现有效透明将更可取,也能提供显著的效益。例如,考虑到人工智能的技术特征,GDPR并没有要求对特定自动化决策进行解释,而仅要求提供关于内在逻辑的有意义的信息,并解释自动化决策的重要性和预想的后果。
另一方面,在人工智能算法监管方面,欧盟认为,对于大多数私营部门而言,其资源是有限的,且其算法决策结果对社会公众的影响相对有限,所以不应施加算法影响评估等强监管。如果一味要求私营部门采取AIA,结果就是其负担的财务和行政成本与算法所带来的风险将不成比例,这将阻碍私营部门的技术创新和技术采纳。因此,对于低风险的算法系统可以以法律责任去规制,允许私营部门以更严格的侵权责任换取算法更低的透明度及AIA要求。根据《治理框架》,可以分层次建立相应的监管机制:对于可能引发严重或是不可逆后果的算法决策系统可以考虑施加AIA要求;对于仅具有一般影响的算法系统,则可要求系统操作者承担较为严格的侵权责任,同时可以减轻其评估认证算法系统、保证系统符合最佳标准的义务。同时可考虑建立专门的算法监管机构,其职责包括进行算法风险评估,调查涉嫌侵权人的算法系统的使用情况,为其他监管机构提供关于算法系统的建议,与标准制定组织、行业和民间社会协调确定相关标准和最佳实践等。
(四)加强算法治理的国际合作
算法系统的管理和运行还需要跨境对话和协作。一国对算法透明度和问责制的监管干预很可能被解释为保护主义或视为获取外国商业机密的不当行为。因此,《治理框架》建议,应当建立一个永久性的全球算法治理论坛(AGF),吸纳与算法技术相关的多方利益攸关者参与国际对话,交流政策及专业知识,讨论和协调算法治理的最佳实践。
欧盟人工智能伦理与治理的启示
在过去二十多年的互联网发展中,欧盟落后于美国和中国,法律政策方面的差异是其中的主要因素之一。正如笔者在《论互联网创新与监管之关系——基于美欧日韩对比的视角》一文中的观点,欧盟在平台责任、隐私保护、网络版权等方面的制度规定都比美国更早和更严格,没有给互联网创新提供适宜的法律制度土壤。如今,步入智能时代,无处不在的数据和算法正在催生一种新型的人工智能驱动的经济和社会形式,欧盟在人工智能领域依然落后于美国等国家。去年生效的《一般数据保护条例》(GDPR)对人工智能发展应用的影响尤甚,诸多研究都表明GDPR阻碍了人工智能、数字经济等新技术、新事物在欧盟的发展,给企业经营增加了过重的负担和不确定性。[8]
回到人工智能领域,欧盟希望通过战略、产业政策、伦理框架、治理机制、法律框架等制度构建来研发、应用、部署嵌入了伦理价值的人工智能,以此引领国际舞台。在这方面,欧盟的确有其独特的优势。但这样的优势能否最终转化为欧盟在人工智能领域的国际竞争力,却值得深思。整体而言,欧盟的人工智能伦理与治理探索,带给我们三点启发。
(一)探索伦理治理的技术路径
显然,面对人工智能未来发展的伦理与社会影响,需要让伦理成为人工智能研究与发展的根本组成部分,加强人工智能伦理研究和伦理治理机制的构建。就当前而言,人工智能伦理治理的实现,更多需要依靠行业和技术的力量,而非诉诸立法和监管。因为技术和商业模式快速迭代,成文的立法和监管很难跟上技术发展步伐,可能带来适得其反或者意想不到的效果,而标准、行业自律、伦理框架、最佳实践、技术指南等更具弹性的治理方式将越来越重要,尤其是在技术发展早期。更进一步,正如在隐私和数据保护方面,经由设计的隐私(privacybydesign,简称PbD)理念在过去十几年获得了强大的生命力,使得通过技术和设计保护个人隐私成为数据保护机制中不可或缺的组成部分,加密、匿名化、差分隐私等技术机制发挥着重要的作用。这样的理念也可以移植到人工智能领域,所以欧盟提出了「经由设计的伦理」(ethicsbydesign或者ethicalbydesign,简称EbD)。未来需要通过标准、技术指南、设计准则等方式来赋予「经由设计的伦理」理念以生命力,从而将伦理价值和要求转化为人工智能产品和服务设计中的构成要素,将价值植入技术。
(二)采取多利益相关方协同治理的模式
当前,人工智能与经济、社会以异乎寻常的速度整合和相互构建,其高度的专业化、技术化和复杂性使得圈外人很难对其中的风险和不确定性有准确的判断和认知。因此,一方面需要通过多利益相关方协同参与的方式,让监管机构、决策者、学术界、行业、社会公共机构、专家、从业者、公众等都能参与到新技术治理中来,避免决策者和从业者脱节。另一方面需要通过科技伦理教育宣传增进科研人员和社会公众在伦理上的自觉,使其不仅仅考虑狭隘的经济利益,而且对技术发展应用的潜在影响及其防范进行反思和预警性思考(precautionarythinking),才有可能通过广泛社会参与和跨学科研究的方式来实现对前沿技术的良好治理。所以,欧盟认为对于人工智能的伦理治理,需要不同主体在不同层次的保障措施,因此需要政府、行业、公众等主体在各自的层级建立保障措施。
(三)加强人工智能伦理与治理方面的国际合作
人工智能的发展与数据流动、数据经济、数字经济、网络安全等密切相关,而且人工智能的研发应用具有跨国界、国际分工等特征,需要在伦理与治理方面加强国际协作和协调。例如,2019年5月22日,OECD成员国批准了人工智能原则即《负责任地管理可信赖的AI的原则》,该伦理原则总共有五项,包括包容性增长、可持续发展和福祉,以人为本的价值和公平,透明性和可解释,稳健性和安全可靠,以及责任。[9]2019年6月9日,G20批准了以人为本的AI原则,主要内容来源于OECD人工智能原则。这是首个由各国政府签署的AI原则,有望成为今后的国际标准,旨在在以人为本的发展理念之下,以兼具实用性和灵活性的标准和敏捷灵活的治理方式推动人工智能发展,共同促进AI知识的共享和可信AI的构建。[10]可见,以人为本的人工智能发展理念正在获得国际社会的共识,需要在此理念的引领下,加深国际对话和交流,在国际层面实现相协调的共同人工智能伦理与治理框架,促进可信的、符合伦理道德的人工智能的研发与应用,防范人工智能发展应用可能带来的国际风险和其他风险,确保科技向善和人工智能造福人类。
参考文献:
[1]//www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.html?redirect
[2]https://www.eesc.europa.eu/en/our-work/opinions-information-reports/opinions/artificial-intelligence
[3]https://www.consilium.europa.eu/media/21620/19-euco-final-conclusions-en.pdf
[4]https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe
[5]https://www.europarl.europa.eu/doceo/document/A-8-2019-0019_EN.html#title2
[6]https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
[7]//www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2019)624262
[8]https://itif.org/publications/2019/06/17/what-evidence-shows-about-impact-gdpr-after-one-year
[9]https://www.oecd.org/going-digital/ai/principles/
[10]https://g20trade-digital.go.jp/dl/Ministerial_Statement_on_Trade_and_Digital_Economy.pdf
来自: 腾讯研究院
更多阅读:Accenture:调查显示企业不愿花钱对员工进行人工智能培训ERC:社交网络与员工职业伦理欧盟:AI网络安全政策发展框架(附下载)Eunomia:欧盟一次性塑料产品危机报告准备好了吗?人工智能已经到来!–(附报告下载)ChatGPT狂欢的背后:人工智能是品牌安全的双刃剑互联网巨头为何都开始深挖人工智能?白宫&纽约大学:人工智能究竟对人类有何影响(附下载)欧盟统计局:2016年62%的欧盟人口至少进行过一次私人旅行欧盟:2020年华为研发投入达到了174.6亿欧元排名全球第二TheEconomist:欧盟出资5000亿稳定经济市场欧洲晴雨表报告:假新闻和虚假网络消息欧盟委员会:2020年欧盟数字服务法(附下载)欧盟统计局:2017年欧盟航空公司共输送10.43亿乘客欧盟委员会:瑞典是2019年欧盟创新的领先者多名专家做客“人工智能与技术伦理”课程
2021年11月9日、23日、30日下午,清华大学公共管理学院教授、人工智能治理研究中心主任、人工智能国际治理研究院副院长梁正教授、信息国家研究中心助理研究员顾心怡博士和西南政法大学高等研究院院长、人工智能法律研究院院长侯东德教授,先后做客我校核心通识课“人工智能与技术伦理”,分别在线做了题为“人工智能的负责任创新:从伦理到治理”、“由准则走向实践:企业的人工智能伦理构建”和“人工智能伦理与法治”的前沿讲座,并进行了线上同步直播。
梁正教授的讲座内容包括人工智能与社会相互嵌入的技术系统、人工智能风险与挑战、人工智能的负责任创新系统三大方面。梁教授系统介绍了人工智能在公共管理、科研、金融、政府决策等各个领域的嵌入。人工智能正在推动社会生活和公共治理的转型和变革,也带来了一定的影响与风险,风险不仅来源于人工智能技术本身,也来源于技术应用中的多种相关社会因素。为了应对这些风险,梁教授提出了从伦理到治理的新角度——构建一个多维共治的负责任的人工智能社会技术系统,即负责任的人工智能创新既需要创新者个人的伦理意识和自觉行动,也需要发挥政府监管、行业自律和社会监督的合力,建立三位一体的负责任创新系统。
侯东德教授的讲座内容包括伦理视野下的人工智能法治,人工智能生成物的法律保护,智能决策导致的法律责任和人工智能时代的法治建设四个方面。侯教授从伦理的视角解析了人工智能法治的内涵、价值追求和四大基本原则,探讨了如何定位人工智能的法律地位。侯教授认为人工智能不具备成为法律主体资格的条件,应定性为法律的客体。法学界对于人工智能生成物的保护也存在争议,侯教授认为在当前的假设和条件下,人工智能生成物既不具备作品的独创性,但人工智能生成物在法律上具有邻接权。针对未来人工智能技术的应用给人类带来各种程度损害的可能情况,侯教授分别从民事、刑事和行政三个层面分析了相关的责任归属问题,以及在法律内外针对不同程度风险采取不同防范措施的必要性。
顾心怡博士的讲座内容包括企业伦理的发展沿革与伦理构建、人工智能企业现状与伦理问题和构建企业人工智能伦理的措施与机制三个部分。在人工智能时代,企业是人工智能伦理的实践主体,顾老师回顾了企业伦理学的发展历程以及与企业伦理相关的理论基础,以及企业的组织关系、商业模式和伦理责任的变革。企业伦理建设涉及技术安全、数据治理、算法公平和可问责性几大方面,伦理的竞争也成为当今商业竞争的核心。企业不仅要重视经济利益,也要重视道德价值的实现。顾老师提出了一些具体的企业构建的伦理准则与机制,建立联通企业经济效益与社会效益之间相互促进的协调机制,实现技术与产业的可持续发展。
三位老师都和同学们进行了积极互动,解答了他们提出的问题。同时,他们希望AI领域的科研和技术人员能够充分重视AI伦理与治理的重大意义,促进AI技术健康可持续发展。三位老师的讲座为本科课程增添了新的内容,为师生们在人工智能及伦理治理的学习和研究中提供新的思路与视角。
梁正,清华大学公共管理学院教授,人工智能治理研究中心主任,清华大学人工智能国际治理研究院副院长,清华大学中国科技政策研究中心副主任,清华大学科技发展与治理研究中心学术委员会秘书长,兼任中国科学学与科技政策研究会常务理事、副秘书长,中国知识产权研究会高校知识产权专业委员会和中国城市经济学会城市公共经济与政策专业委员会副主任,《科学与管理》、《中国标准化》杂志编委。先后获第八届高等学校科学研究优秀成果一等奖,中国科学学与科技政策研究会优秀青年奖等多项奖励。主要研究方向为科技创新政策、研发全球化、标准与知识产权、新兴技术治理。
侯东德,西南政法大学民商法学院教授,高等研究院院长,人工智能法律研究院院长,中国法学会商法学研究会理事。长期从事民商法学的教学和理论研究工作,主持及参加课题研究十余项,出版学术专著及教材五部,发表学术论文三十余篇。
顾心怡,北京大学哲学系伦理学博士,清华大学信息国家研究中心助理研究员。曾参编教材《人工智能伦理导引》,于《科学技术哲学研究》等刊物发表论文,如《脑机接口的伦理问题研究》。主要研究方向为人工智能伦理、脑机接口伦理等。
(计算机学院,人文学院)