博舍

::徐玖玖:人工智能的道德性何以实现?——基于原则导向治理的法治进路 人工智能的发展主要靠伦理规范

::徐玖玖:人工智能的道德性何以实现?——基于原则导向治理的法治进路

 

摘要:人工智能是模拟、延伸和拓展人类智能的新兴技术,其道德性的实现尤为重要。人工智能的道德失范既是一种客观的现象描述,也是一种主观的价值判断,既有积极效应,也有消极效应。从全球人工智能道德性实现的实然应对来看,人工智能道德准则的探索呈现出技术主义、降维虚化、内核分歧的特点,并不能为道德性的实现提供可行方案。这一困境的根本原因在于人工智能技术性与道德性之间的冲突难以调和,而以“技术—法治—人文”为范式进路,探索技术性与道德性的激励相容之道,是这一问题的关键所在。对此,引入原则导向治理理论,可以在人工智能道德性实现的理想状态与现实规范之间创造出包容审慎的制度空间,构建由核心原则框架与工具选择共同组成的人工智能原则导向治理体系,实现人工智能道德性在道德价值、技术要求和法律语言之间的“转录”。

关键词:人工智能;道德性;技术性;原则导向治理;法治;激励相容

 

“人工智能时代”来临,信息技术正在与社会经济生活深度融合,人机交互不断加深,人工智能不但成为日常生活的构成要素,而且逐渐向声誉、信用等具有人格属性的私领域渗透。在这场“第四次工业革命”中,人工智能作为引领未来的战略性技术,对于提升国家竞争力、维护国家安全、提高人民生活水平都具有重要的意义。习近平总书记指出:“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题”,“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”相较于一般的技术创新,人工智能的特殊性是其旨在模拟、延伸和拓展人类智能,对于人类社会的发展具有更深层次的影响。然而,人工智能的发展也对既有的社会结构及其规范体系产生冲击,出现了一系列偏离传统价值观念的失范现象。例如,人工智能技术的应用对社会、文化和政治环境带来的系统性影响;人工智能设备的行为可能会超出所设定的原则,从事不道德行为;人工智能技术可能因训练数据的偏差导致更加不公平的决策歧视;等等。因此,如何实现人工智能的道德性,纾缓技术与道德之间的冲突,是始终萦绕在人工智能发展之上的“达摩克利斯之剑”。人工智能道德失范的“基因”是否会成为技术创新的阻碍因素?怎样的治理范式才能解除人们对于技术的担忧?如何实现科技的可持续发展?对于这些问题的回答,都将决定人工智能的未来之路。

一、人工智能道德失范的判定与讨论

(一)人工智能道德失范的客观存在:技术失序与规范失效

“道德失范”(disorderedmoral)通常属于伦理学的范畴,是指由于社会生活中道德价值及其规范要求的缺失或失效,导致社会行为和社会生活出现混乱。从这一意义上而言,人工智能的道德失范是一种状态,即社会既有的价值观念被技术所打破或否定,包括法律在内的各类社会规范丧失约束能力,而新的、有效的规范尚未建立或达成共识,由此所呈现出的失序现象。因此,人工智能道德失范的判定包括两个因素:一是存在失序现象,二是缺乏有效规范。

第一,人工智能技术存在失序现象。对于技术失序的担忧广泛见于各国或国际组织关于人工智能相关的政策文件之中。例如,2020年2月欧盟委员会发布的《人工智能白皮书:通往卓越和信任的欧洲之路》(WhitePaperonArtificialIntelligence-AEuropeanApproachtoExcellenceandTrust)将人工智能可能带来的危害描述为,生命健康和财产安全等物理伤害、隐私和尊严等非物理伤害;2019年4月澳大利亚工业创新和科技部发布的《人工智能:澳大利亚的伦理框架》(ArtificialIntelligence:Australia’sEthicsFramework)提出,算法可能有损公平、透明、基本权利保护等法益,甚至瓦解作为法治根基的正当程序原则。而从实践来看,由人工智能技术所引发的诉讼案件已然出现,算法失能和技术风险带来的道德失范成为裁判的焦点。例如,在2019年Lynchv.State一案中,警方运用“人脸分析比较测试系统”(FACES)辨认犯罪嫌疑人,FACES通过处理和分析被匹配图像,将其与数据库中图像进行比对,并将识别出的图像根据匹配度的高低进行排序。法庭认为FACES所应用的算法并非完全中立、可靠、准确的描述,法庭所援引的研究报告甚至指出,相比白人、老人和男人,面部识别算法更容易误认黑人、年轻人和妇女。

第二,人工智能技术缺乏有效的治理范式。在应对人工智能技术失序的过程中,无论是传统的人文主义进路,还是新兴的技术主义进路,都面临着一定程度的困境。一方面,传统的人文主义范式被打破。人文主义视角以人类权利为逻辑起点,以人类的尊严和福祉为导向,要求技术表现出一定的人文关怀和人文精神。然而,道德具有抽象性和非单一性,以法律的可规制性为标准,可以发现道德的法律支持包含两个层次:一是基础的层次,基本的道德义务在长期的社会发展中演化为普遍共识,并通过法律形式得以固化和执行;二是超越的层次,即更高阶的“善”,受制于不同国家和地区文化传统、法治水平、民众选择等因素的影响。基础层次的道德虽然更易获得法律的支持,但不同法制体系对于道德的解读和实践亦有差异;而超越层次的道德存在多元性,法律无法对此课以过于严格的规范要求。

另一方面,新兴的技术主义范式亦有局限。技术主义视角是从技术出发,将道德问题还原为技术问题,认为技术的设计与开发应当承载道德价值,并有利于实现人类的目标。人们对运用人工智能模仿人类理性活动抱有极高的期待,新近技术已经从简单的形式推理向不精准推理和非单调推理发展,人工智能打破了人类与理性之间的亲历关系,被视为技术可以依靠自身解决道德问题的重要标志。简单的计算主义和技术主义思潮将“技术主义”作为归正道德失范的“万能解”,认为技术风险源于科学也应求解于科学,通过技术方案或者技术专家实现“技术治理”。然而,在客观方面,人类的理性活动不可能完全通过机械的数据呈现为一种“规范的作业”;在主观方面,技术产业化使科学界在事实上无法完全摆脱资本的俘获。技术专家作为理性经济人存在的逐利性,并不会因其受制于职业道德的约束就自发地趋向完全理性。根据马克思主义哲学辩证唯物主义,主客观相统一是正确认识事物的一项基本原则。技术作为一种客观事物需要与人的作用相结合,本身无法脱离人而单独存在。技术主义无法为人工智能的道德性提供自洽的范式,人工智能仍要接受法律的规训和道德的指引,承载起良好的价值理念。

(二)人工智能道德失范的辩证认知:消极效应与积极效应

技术的发展催生了关于人工智能道德问题的广泛讨论。从国外研究来看,EdmondAwad等从233个国家和地区数百万人次超过4000万条的决策中发现,自动驾驶汽车的决策遵循人类的道德偏好,并受到人类文化差异的影响。AnnaJobin等发现,全球范围内人工智能的道德准则在透明、公平正义、无害、责任和隐私五个方面出现融合,但具体实践和概念内涵仍有较大分歧。BrentMittelstadt认为,相较于医学伦理原则,人工智能伦理原则在概念化和体系化的表述中,缺乏共同目标和信任关系、专业的历史和规则体系、将原则转化为实践的可行性方法、健全的法律和问责机制等要素。国内关于人工智能道德性实现的研究亦是硕果稇载:例如,王东浩认为应当培育智能体的自主决策能力和道德控制力;李伦认为人工智能需要一颗“良芯”,“行有德之事,做有德之机器”;孙那提出应在立法、司法裁判和法律效果评价等环节嵌入道德的考量因素;杨庆峰认为应当通过透明性和关联性构建人工智能伦理原则。可以发现,现有研究主要集中于伦理学、哲学、信息科学等学科范畴,虽有交叉学科的广度,但整体呈现为较为零散和碎片化的学术场域样态。而法学领域尚未形成专门针对人工智能道德性实现的规范分析,亦未寻找到技术主义、人文主义等不同范式相互融合的可行路径。

人们对人工智能从拥抱之姿向审慎之态转变,关注焦点从静态的技术本身向动态的技术应用转向,希望人工智能的自主决策能够与人类的道德观念相一致。然而,目前人工智能产业缺乏共同的价值标准,从业者缺乏识别和应对道德问题的敏感认知和专业能力,导致技术出现失控或脱离规范的约束。在这种道德失范的未来图景中,人工智能与人类的发展、幸福和自我实现并不趋同。而对于这一话题的探讨需要回归到最基础的问题,即如何认识人工智能的道德失范,并在辩证唯物论基本规律的框架中展开讨论。人工智能道德失范的判定隐含着一个大前提,即某种特定的道德标准先于技术而存在。因此,在人工智能的道德性如何实现、实现的必要性、实现的限度等具体问题上,就必须考量既有道德价值是否正当、合理和必要。从这一角度而言,人工智能的道德失范是客观现象与主观判断的统一。一方面,人工智能的道德失范具有客观性和必然性。随着信息技术的创新和发展,社会规范体系无法满足技术演变所产生的制度需求,人工智能的道德失范是复杂社会技术系统中必然存在的客观现象。另一方面,人工智能的道德失范具有主观性和变化性。事实上,应对人工智能的社会规范并非固定不变,本身亦处于不断否定之否定的过程状态,并在矛盾与冲突中改变、适应和提升。由此,人工智能的道德失范是伴随技术发展的一种正常的社会现象,其既有矛盾冲突的消极效应,也存在创新更替的积极效应:对于前者而言,人工智能道德失范是技术处于一种风险失序和规范失效的过程状态;对于后者而言,人工智能道德失范也代表着规范转向和价值重塑的过渡阶段。因此,人工智能道德性的实现既需要激励其积极的一面,又需要审慎其消极的一面,在法治的框架中实现积极效应与消极效应的博弈均衡。

二、人工智能道德性的实然应对与应然需求

(一)实然应对:人工智能道德性实现的全球探索

从全球范围来看,人工智能的道德性难题并非中国所特有,而是各国人工智能法律治理的共同话题。通过检索和梳理可以发现,自2016年1月1日至2020年6月30日,以公共部门为发布主体,针对人工智能道德性进行专门规定的政策文件有13件(表1)。整体而言,自2017年开始,各国公共部门就高度关注人工智能的道德问题,对于人工智能道德准则的期待多集中于公平公正、责任安全、透明可信、隐私保护、以人为本、效益等方面(图1)。人工智能道德性实现的全球探索整体呈现出技术主义、降维虚化、内核分歧的特点。第一,在范式选择上,带有浓厚的技术主义色彩,通过将道德问题还原为技术问题,要求人工智能技术在开发、应用和创新中承担起捍卫道德伦理的责任。第二,在文本表述上,主要由宣示性或倡导性条款组成,在规则向实践的转化过程中出现了降维虚化。各国人工智能道德性的实现方案多停留于更高阶的“原则”层面,既没有与现行规范进行接轨和协调,也无法为在道德价值、技术要求和法律语言之间形成科学、合理、规范的“转录”提供规范性的工具选择,最终“始于原则”而“终于原则”。第三,在具体内核上,人工智能的道德准则虽然出现趋同,但在重要概念、基本框架、实现方式等方面尚未形成共识。

 

 

 

由此观之,目前全球人工智能道德准则的实践探索并不能为道德性的实现提供可行方案。人工智能道德性实现的困境源于技术性与道德性之间的冲突难以调和,无法达致技术与道德的均衡支点。人工智能的道德失范源于其原生性的技术基因。技术与社会的深度结合成为公共事务的重要表达方式,对基本的道德理念和人类的主体性产生冲击,模糊作为主体的人与作为客体的人造物之间的界限,消解人们对于道德伦理的普遍共识。而人工智能的道德性意味着技术需要承担起权利保护、效率激励、公共利益等多重价值,弥合从业者、监管者、社会公众之间的利益诉求。这种价值的背负表明人工智能的道德性实现不可能是完全中立的,而必然隐含着对某种价值标准的偏好。因此,人工智能的法律治理需要在技术性与道德性之间寻找利益的均衡支点,如果过于宏观则会丧失规范的意义,如果过于微观又会禁锢技术迈进的步伐。

(二)应然需求:人工智能技术性与道德性的激励相容

学界对于人工智能的治理范式已有不同学说。张守文教授认为,人工智能产业应当在“技术—制度”的分析框架内,因循“人工智能技术—人工智能产业—经济法规制”的逻辑主线。龙卫球教授认为,人工智能的法律治理需要考虑其强社会面向,构建“技术—社会+经济”的新立法范式。曹建峰研究员认为,人工智能的治理范式可以选择科技人文协作为进路,实现科技与人文的平衡。张文显教授提出应以“未来法治”为科学范式,实现“面向未来”“走向未来”和“引领未来”的法治,构建以科学、人本、包容、普惠、共治为元素的智能社会法律秩序。可以发现,人工智能的治理范式始终围绕着技术和人文这两个关键词,区别在于面向的维度或选择的侧重点有所不同。

正如前文所述,仅凭单一的人文主义或技术主义范式无法有效应对人工智能的道德失范。人工智能的道德性实现涉及伦理、观念、法感情等因素,这使技术与道德之间的博弈存在着一定的张力。技术性与道德性之间的均衡需要依托人类的理性思辨,而非将道德价值、技术语言与既有法律进行简单的拼接。对此,“技术—法治—人文”可以成为人工智能道德性实现的新范式,即以法治为媒,连结技术与道德,既规范技术的应用边界,促进其道德性的实现,又为技术预留包容审慎的空间。由此,推动技术主义与人文主义的范式融合,调适地、渐进地化解技术与道德之间的冲突,在法治的框架中实现价值的均衡与归正,探索人工智能道德性实现的激励相容之道。

“技术—法治—人文”的范式进路是将宪法和法律作为人工智能道德性实现的框架秩序,对科技可能带来的非理性后果保持审慎观察,以法治手段均衡技术创新与人类权利之间的关系。然而,成文法的规范体系具有滞后性,亦不可能绝对完备,无法调整所有形态的社会矛盾。正如梅因所言,“社会的需要和社会的意见常常是或多或少地走在法律的前面,……因为法律是稳定的,而我们谈到的社会是前进的。”对此,原则主义(principlism)可以为“技术—法治—人文”三路向的融合提供一个均衡的支点,提高治理方案的适用性和周延性。基于原则主义,通过法律原则的确立达成一定范围的道德共识,将道德要求转化为具体的责任形式,以期道德性在现实层面得以实践和呈现。

三、人工智能道德性的实现路径与理论证成

(一)原则导向治理的引入与评价

原则导向是相对于规则导向而言的,两者的根本区别并不在于是否包含具体的规则,而是规则的使用方法:规则导向监管通过一系列的法律法规实现尽可能的全面覆盖,以确保市场活动的合规性,但由于规则过于具体和细致,市场主体和监管机构的能动空间较为有限;原则导向治理强调规则的出发点或目的,明确被监管者需要遵守的根本性义务,以结果为导向,以更高位阶的原则而非具体的规则为工具,但不对被监管者如何达到这一目标进行具体要求,在语言表述上多为定性术语而非定量术语,为市场主体提供充分的发展空间。原则导向监管的逻辑在于,从业者作为最直接的市场主体应当有能力在市场竞争中精准地推演和量化风险,相较而言,监管者容易出现拖滞和官僚等倾向,产生阻滞效应。因此,2008年金融危机爆发之前,原则导向监管被视为激活金融市场的“催化剂”和培育金融创新的“温室”,并在各国实践中发展出了“最少的监管就是最好的监管”“轻触式监管”(lighttouchregulation)等多种形态。但是2008年金融危机爆发后,原则导向监管被认为是次贷危机酿成的制度根源。理由在于,原则导向的监管认为,从业者都是谨慎并且负责的,因此市场也具有了自我修正和调整的能力。然而事实是,市场并非万能,从业者也并非完全理性。原则导向监管过于依赖金融机构的理性,只能对“有原则”的从业者产生约束,却变相地为“无原则”的从业者提供了漠视风险、套取红利的寻租通道。

从法治的思维观之,人工智能的道德性实现若以原则导向治理为径,尚需回答三个问题:第一,人工智能原则导向治理能否在技术和道德之间实现可行的“转录”。虽然原则导向治理更多体现为更高阶的法律原则,但同样需要将道德的要求、理念和精神进行概念化和规范化,成为能够应用于个案判断的法律语言,而不能为道德困境和价值取舍等难题提供逃遁的空间。第二,人工智能原则导向治理是否会导致道德的简单化。有观点认为,人工智能的道德要求仅仅是一种“美德信号”(virtue-signalling),对人工智能的技术性和道德性实现法律归化,最终恐沦为一种乌托邦式的治理。人工智能涉及诸多各异的专业领域,为了适应学科交叉的多元性,法律(包括法律原则)似乎唯有不断简化内涵、模糊定义才能满足应用的需要。但这种为了适用性而进行的妥协,亦使规范过于抽象而丧失了良好治理的价值,甚至可能产生道德相对主义。第三,人工智能原则导向治理是否会违反法治原则。法治的基本要求是规则在表述上应当明确、清晰,满足所有主体对规则确定性的需求,而模糊的开放性标准和不确定的法律概念都可能加重被监管者的义务,是用“简单的外衣”覆盖“复杂的身躯”。

(二)人工智能原则导向治理的合理性论证

原则导向监管并不等于“放任监管”,事实上,即使是在后危机时代,金融监管也并未摒弃高级监管原则的应用。原则导向与规则导向之间并无绝对的优劣之分,只有相对的适合与否,代表着不同的监管理念:原则导向监管更尊重市场竞争、产业创新和从业者自律,弱化政府的功能和作用,保持政府干预的谦抑性;规则导向监管则展现了“父爱主义”的规制色彩,强调市场主体应当遵循各类规范的具体要求。相较而言,原则导向治理在人工智能道德性实现的议题上更具适用性和合理性。

第一,原则导向治理的灵活性和包容性更有利于调和人工智能技术性与道德性之间的矛盾。人工智能的道德性实现需要在不断变化的技术语境与相对确定的规则要求之间寻求可行路径。规则导向治理强调被监管者的合规性,其定量要求的列举虽然有利于提高效率和统一标准,但对于发展中的人工智能产业而言,亦存在着过于滞后、僵化和割裂的局限性,而为应对新问题、新风险频繁地立改废释亦会使规范体系越发臃肿庞杂。人工智能原则导向治理则是确定制度目标和预期结果,通过概要性的基本准则以及相应的工具手段规定从业者的基本义务,形成预见性、前瞻性和基准性的治理框架。这种灵活性和包容性使人工智能原则导向治理在应对技术创新和风险演化时,可以较少地依赖于静态或固定的量化指标和行为要求,为协调人工智能技术性和道德性的两难困境提供博弈空间。

第二,原则导向治理是人工智能实现“技术-法治-人文”重构型立法的重要方式。智能时代打通了技术与生命的双向通道,科技极大地冲击了人类作为唯一智能生命的神圣性和不可操纵性,深刻地改变着传统法学的面相,引发了人们对于赛博朋克之下社会基本价值失序的深切担忧。人工智能的道德性实现,既需要解放思想,也需要警惕片面的技术理性论的渗透,将技术价值和道德价值整合纳入法律的价值体系之中,实现人工智能的重构型立法。而在这样一个复杂多变的新兴技术领域实现制度重构,原则导向治理能够促进形成更具道德性的治理方案,彰显法治之精神。在现代信息社会,原则导向治理可以成为缓释监管者、从业者和社会公众之间的利益冲突,探寻最大限度的共识并重建协作与信任的有益通路。

第三,原则导向治理是过渡阶段人工智能立法的务实选择。2017年国务院印发《新一代人工智能发展规划》(国发〔2017〕35号),提出到2025年初步建立人工智能法律法规、伦理规范和政策体系,到2030年建成更加完善的人工智能法律法规、伦理规范和政策体系。2020年10月,中共中央办公厅、国务院办公厅发布《深圳建设中国特色社会主义先行示范区综合改革试点实施方案(2020-2025年)》,强调要“支持深圳扩宽经济特区立法空间,在新兴领域加强立法探索,依法制定经济特区法规规章”,赋予深圳在人工智能等领域的先行先试权。我国人工智能立法已蓄势待发,然而其现实的立法条件却尚不成熟。人工智能技术远未成熟,诸如人工智能的法律责任、主体地位、权利内容等基础理论问题仍存在较大争议,客观上很难在短期内制定出科学合理、完备可行的法律规范体系。对此,有观点提出,可以选择诸如自动驾驶等技术相对成熟、产品应用存在需求的领域,先行展开地方性、试验性的立法。但这仍未回答人工智能如何体系化立法、如何构建顶层制度等问题。原则导向治理与规则导向治理并非二选一的排斥关系,而是在完备性和不确定性之间,根据技术、社会、法治发展的客观规律,结合产业特点和治理场景因势选择:规则导向治理更适合实现高效、重复、统一规制的领域;原则导向治理则更适合能够允许从业者发挥主观能动性,实现“创造性”合规的领域。因此,原则导向治理对于过渡阶段的人工智能立法具有更高的适用性,以先发展后规范、先原则后规则为进路,化解人工智能立法的现实困境。

四、人工智能道德性实现的原则框架及其解释

原则导向治理中的“原则”并非简单的治理“底线”或“基本原则”,从抽象层面而言,是指追求一种治理目标或治理结果的过程和方式。从前文可知,全球人工智能的道德性实现在公平公正、责任安全、透明可信、隐私保护、以人为本、效益等方面出现趋同。但是并非所有原则都适合作为人工智能道德性的原则框架,例如隐私保护原则更多是个人信息保护维度的要求,而以人为本原则应是所有原则的最终指向,是更为抽象的“元理念”。对此,人工智能的道德性实现可以构建由透明可信原则、公平公正原则、责任和安全原则、效益原则组成框架体系,在此基础上实现人工智能的原则导向治理。

(一)透明可信原则

透明可信原则是人工智能道德性实现的“帝王原则”,从原则导向治理的角度而言,人工智能的道德性实现旨在寻求一种调适性的“透明可信”。

第一,透明可信原则并非“全面的、简单的、绝对的公开”。一方面,代码等技术内容难以为非专业人士所理解和认知,要求人工智能绝对公开和透明缺乏实际意义。另一方面,国家安全、知识产权和商业秘密保护通常会成为对抗这一原则的理由,使其流于形式而无法实现。透明可信原则的意旨在于打破技术壁垒所带来的道德失范,在法律治理与产业激励之间寻求信任与合作的平衡点。因此,原则导向治理中的透明可信原则应当理解为一种包容审慎的调适性监管:对于风险较高的人工智能应用,将透明可信原则纳入资质审查的范围,进行预先解释或公开备案;对于风险较低的人工智能应用,可以采取信息披露、消费者主体限定等方式,避免过度倚重指令式的规则导向治理。

第二,透明可信原则与可解释原则是不同范式对同一问题的表达。有观点认为,对于技术的规制正在从透明性向可解释性转化,要求从业者对决策的过程、结果和原因提供“与利益攸关者的专业程度相适应”的解释。“解释对于关乎它们的行动、行为和决策透明与否是重要的,尤其是在人类需要基于AI系统结果决策的场景中更加重要。一种合适的解释能够提升人们对于系统的信任,在交互关系中能够更好的合作。”可信与可解释是人文主义进路和技术主义进路对同一问题不同视角的表达,都意在降低因技术所产生的信息不对称程度,两者并不矛盾。

第三,透明可信原则与可溯源、可问责之间并非互斥关系。有观点认为,对于人工智能可能产生的错误或风险,法律应当要求其可溯源而非透明。逻辑在于,算法透明原则在可行性方面无法应对国家安全、社会秩序和私主体权利,在必要性方面无法等于可知,缺乏规制的有效性,因此,相较于算法透明的事前规制,以算法问责为代表的事后规制更加妥当。但在人工智能的道德性实现中,仍应坚持透明可信的“帝王原则”地位。一方面,透明可信与可溯源、可问责之间的区别在于阶段的不同,前者以算法为起点,着力于应用阶段,后两者以结果为起点,着力于后算法阶段。事实上,可溯源和可问责更多体现于责任和安全原则,与透明可信原则并不冲突。另一方面,算法可溯源、可问责在人工智能道德问题上的适用性尚需进一步商榷。人工智能技术对于道德价值的冲击是深层次的、结构性的,这种影响无法通过事后阶段的溯源或问责实现弥补和覆盖。对于透明可信原则的局限性,需要通过细化限度范围、优化工具选择等方式增强其科学性和合理性,而非否定或摒弃。

(二)公平公正原则

公平公正原则是人工智能道德性实现的基础性原则。公共部门与私营部门在如何实践公平公正原则这一问题上分歧较大:公共部门强调技术的应用与结果应有助于减轻偏见、避免歧视;私营部门则希望通过标准、编码等技术的修正或升级形成解决方案。分歧的原因在于,公平公正原则的实践颇为困难,尽管各国普遍“收录”其作为人工智能道德性的重要组成部分,但“对于公平的讨论往往流于文字修辞,缺乏严谨性和准确性”。而极端的技术主义进路用统计学的方法实现数学意义上的公平,但却忽视了公平公正本身亦是一个公共政策问题,仍然需要人文主义视角下的沟通与对话,以及规范主义视角下程序和权利的保障。

第一,公平公正原则是贯穿人工智能全生命周期的基本原则。一方面,应警惕技术应用的结果可能对社会和人类发展带来不平等、歧视等问题;另一方面,在人工智能开发阶段(例如训练数据、训练方式等),应当在源起时明确其是否存在偏见,设定相应的措施手段。

第二,公平公正原则是动态的持续性要求。公平公正原则旨在促进平等、正义和多样性的实现,然而神经科学证明人们无法全面认知自身的意识过程,这种认知偏差同样会影响人工智能道德性的实现。因此,需要对人工智能全生命周期设定公平性的监测、审核和反馈机制,避免因机器的无意识偏见或从业者的“内省错觉”(introspection illusion)减损道德价值。

第三,公平公正原则是一种实质正义。公平公正原则本身就带有一定的“偏见”,隐含着对弱势群体的倾斜性保护。因此,公平公正原则并非绝对的“去偏见”化,亦非形式公平或技术公平,而应以实质公平为导向。这也导致人工智能的道德性实现在工具选择中必然会表现出一定的“弱父爱主义”色彩,通过规则构建增强个体的理性条件。

第四,公平公正原则是一种程序正义。“善”的讨论并非小群体的智识判断,而是关乎最广泛普通人的价值选择。无论是依据科学叙事还是监管逻辑进行立法,都容易使风险判断和工具选择出现内循环的局限性。因此,人工智能公平公正原则的实践需要程序正义的保障,即在系统开发、程序应用、算法设计和政策决策的过程中,涉及到重大道德伦理问题时,需充分咨询公众、专家、企业等群体的意见,在最大范围内达成社会共识。

(三)责任和安全原则

责任和安全原则是人工智能道德性实现的保障性原则。责任原则一般是指,人工智能从业者应当对系统的正常运作以及相关的道德准则负责。而安全原则一般是指,人工智能需要避免产生伤害,同时防止和减少风险的产生。责任原则和安全原则一体两面,安全原则是责任原则的目的和指向,责任原则是安全原则的工具和结果,两者不宜分立讨论,而是应当纳入同一框架内,根据“安全-风险-责任”的逻辑脉络实现规制。参考借鉴《人工智能:澳大利亚的伦理框架》(讨论稿)中的“算法影响评估”,可以对人工智能的道德性影响展开评估,并采取不同的应对措施:首先,根据人工智能在影响范围、所涉领域、失范类型等因素,以程度大小分为不重要、轻微、重要、重大、至关重要等五级道德性影响等级;其次,在道德性影响等级的基础上,针对不同的人工智能道德失范问题分别采取应对措施,属于不重要级别、轻微级别人工智能道德性影响的,以内部控制和测试、行业标准、企业自律等方式为主;属于重要级别人工智能道德性影响的,应相应增设影响评估、风险控制、信息披露等方式;属于重大级别人工智能道德性影响的,还需通过专家咨询、专员设置、资格审查等方式予以规范;至关重要级别人工智能道德性影响的人工智能应当严格审查,必要时禁止应用。同时,人工智能原则导向治理中的责任和安全原则,既包括物理意义上的技术安全,也包括抽象意义上的安全可控。人工智能技术应当避免直接或间接地损害用户以及利益相关方的权益,而决策者和从业者都应对人工智能在社会稳定、价值观念、法情感等方面可能产生的冲击保持审慎,选择更为成熟而非冒进甚至激进的方案。

(四)效益原则

效益原则是人工智能道德性实现的激励性原则。效益原则通常关注人类社会的福祉、繁荣、和平和幸福,包括繁荣经济,为社会创造更多的机会,促进人们对科学的理解等内容。原则导向治理中的效益原则既是公益与私益的统一,也是一国与全球的统一。一方面,效益原则不仅仅是宏观层面的公共利益,同样是微观层面的私益。目前对于人工智能道德性的规范思考多以“监管”作为逻辑起点,尚未形成产业激励层面的制度考量。原则导向治理有助于在产业激励层面提供一定的包容审慎空间,意即,这种效益不仅仅是社会或人类视角下的公共利益,同样包含了每个人工智能产业的从业者、企业等主体的私益诉求。另一方面,效益原则不仅仅是一国之福祉,同样是人类社会的整体利益。根据人工智能原则导向治理的和谐发展理念,这种效益不能局限于一国之内,不应是国家性的效益,而应当是全人类(包括代际之内和代际之间)范围内的共同利益。

五、人工智能原则导向治理的工具选择

(一)建立人工智能伦理咨询与审查机制,强化公众参与和民主决策

首先,通过人工智能伦理咨询与审查机制为人工智能立法和公共政策提供广泛意见。一方面,形成日常性的人工智能伦理咨询机制,并在中央层面建立人工智能政策委员会。人工智能伦理咨询机制负责为行业监管部门提供信息、更新知识,持续跟踪科技风险的新发展,建立人工智能风险评估体系,并为行业监管部门提供关于人工智能道德问题的专业意见,推动形成具有动态性、渐进性和调适性的行业监管。人工智能政策委员会负责宏观审慎监管和政策协调工作,就人工智能道德问题向行业监管部门提出建议。另一方面,确立具有约束力的人工智能伦理审查机制,以行业监管为基础构建具体的实施流程和规范体系。人工智能伦理审查机制需要进一步规范化、制度化、普遍化,由行业监管部门与审慎监管部门通过监管备忘录等形式形成信息共享机制,并在此基础上定期更新,明确不同行业监管部门在人工智能道德性实现方面的职责范围。在人工智能可能涉及重大伦理或道德问题时,行业监管部门应在充分咨询信息科学、伦理学和法学等领域专业意见的基础上,与人工智能政策委员会就重大议题的信息、建议、知识等方面展开沟通和合作。

其次,推动形成对于人工智能道德性实现的公共讨论和民主决策过程。无论是由科技专家主导的技术规范,还是由法律专家主导的司法裁判,在涉及社会公众重大利益的决策中,人工智能法治应当为普通民众预留充分的意见空间。具体而言,在宪制框架中依循法定程序进行充分的讨论和审议,将人工智能决策相关的重大伦理和道德问题交由更具广泛代表性的集体展开商讨,在技术、法治、人文三路向的基础上凝练社会共识,体现人民群众普遍认同的道德、情感和价值判断,标明人工智能道德性实现的底线。

(二)构建人工智能领域的主体适当性制度与避风港规则

从业者往往被视为人工智能道德性实现的关键,甚至有观点提出应当建立高风险人工智能系统开发人员的许可制度,以从业者的准入门槛为工具,将技术的道德难题交托于具有较高道德标准的主体进行解决,并在有限的主体范围内落实道德原则的实践要求。但其中存在着一定的逻辑错位,人工智能的风险必须结合应用场景展开讨论,主体资格的筛选并不能保证技术能符合更高的道德要求。风险的讨论应当回到其对应的概念之上,即风险的承担,让能够承担高风险的主体承担高风险、获取高收益,让无法承担高风险的主体承担低风险、获取低收益,这才是符合成本收益理论的制度选择。

因此,相较于从业者许可制度而言,更加合理的工具选择应当是以“从业者有责,消费者自慎”的主体适当性制度为主,以“避风港规则”为辅,形成人工智能法律治理的双重责任规则。根据近代民法契约自由的法治精神,交易达成,严格执行,“成年人应当自己照拂自己。他无须法律的家长主义来庇护自己。在他行动之时,他就应当已经意识到了行为的风险,就必须承担相应的后果。”但是受到技术、理性、信息等约束条件的影响,特别在新兴的人工智能领域,消费者在客观上无法真正了解和确知技术的后果,主体的理性条件与风险承担之间存在不对等,需要借助法律的意旨补充和扶助消费者的意思表示行为。具言之,对于具有技术高风险性或是涉及重大伦理道德问题的人工智能应用,应当作为特殊场景,适用“从业者有责,消费者自慎”的主体适当性规则。一方面,从业者对于技术可能带来的风险予以充分的预期、披露和告知,同时根据消费者在技术与理性方面的不同认知水平进行主体分类,确保技术应用与使用者的主体适当性相匹配;另一方面,消费者应当保持自慎的理性姿态,保证其在主体适当性审查中所提供的信息准确并且全面,为从业者展开主体适当性的分类和匹配提供判断依据。由此,通过不同主体应用不同风险条件的人工智能技术,在一定程度上呈现法律对于弱者实现倾斜保护的立法取向。与此同时,构建激励人工智能产业创新发展的“避风港规则”作为人工智能从业者责任承担的平衡砝码,避免对人工智能系统的提供者课以过于严格的法律责任,人工智能技术提供者在被告知技术应用存在违背道德要求时,应当及时启动审查程序并采取相应措施。对于因消费者未尽到真实告知义务而产生的损害、已尽到法定义务但在现有技术条件确实无法预判的风险等特殊情形,应减轻或免除技术提供者的责任。

(三)将人工智能的道德性实现纳入企业社会责任的范畴

人工智能具有高度的专业性和技术性,“在法制定层面与法适用层面都需要有足够的专业知识来构架、填充、认知、运作行为规范与评价规范”。人工智能从业者的“良好行为”一方面需要依靠主体的道德信念和职业操守,另一方面也需要以治理结构为基础,以企业社会责任为依托,搭建人工智能道德性实现的责任机制,进而提高原则导向治理的可执行性。科技企业对于示范性规则、准则、标准等治理方案的探索非常活跃,特别是大型的科技企业,既是原则治理的接受者,也是重要的参与者和制定者。企业的自我规制在本质上而言是社会自我规制的一种,但在鼓励企业充分发挥技术优势、实现自我规制的同时,也需要对市场主体的脆弱性保持警醒,避免原则导向治理仅呈现为一种虚化的假象。自我规制的脆弱性来源于两个方面的影响:一是技术人员作为个人的脆弱性,二是企业作为集体的脆弱性。有观点曾经尝试从信义义务的角度证成企业的社会责任,其原理在于,由于技术壁垒的存在,消费者处于易受技术主体影响的弱势地位,对企业形成了合理的、特殊的依赖,由此产生企业的信义义务。但是传统的公司治理结构要求企业应当对股东负责,相较而言,消费者利益以及社会公共利益并不具备逻辑上或法律上的优先性。意即,人工智能企业(包括其技术人员)可能出于增加收益的目的,选择为了企业利益而忽略风险,甚至抛弃技术应用背后的道德考量。因此,人工智能原则导向治理需要将道德性实现契入企业的治理结构,推动企业自上而下形成具体规范,通过实例、示例、标准等多种形式,探索不同道德原则实现“转录”的具体方案。

与此同时,人工智能企业的类型、规模、技术、信息等条件,同样会影响企业承担社会责任的条件和能力。因此,对于人工智能道德性实现课以社会责任的要求,需要根据技术条件和责任能力进行分类,形成梯度设计,避免因缺少对不同人工智能企业特殊性的观察而产生规制的失衡。具体而言,对于一般性的人工智能企业,可以要求其公司治理目标包含其他利益相关者的诉求,这些利益相关者包括监管机构、政府以及消费者等主体;对于技术风险较高或涉及重大道德伦理问题的人工智能企业,则应当将这一治理目标嵌入公司的具体结构和管理制度之中,例如,设立专任的技术风险安全官或伦理道德审查委员会,将安全与道德问题纳入内部监督和审查的范围,完善技术风险与安全问题的信息披露机制等。

(四)扩大司法裁判在人工智能道德性实现中的能动空间

通过原则导向治理实现人工智能道德性的最终环节,即为纠纷的解决。这需要依托于法官作为“人”的理性思辨。据检索,现有涉及人工智能技术应用纠纷的案件已有四例,两例为民事侵权,两例为刑事犯罪:李××与广州网易计算机系统有限公司网络侵权责任纠纷案[(2019)桂0802民初3026号],原告起诉被告的人工智能客服造成其游戏账号产生财产损失;黄××与北京百度网讯科技有限公司网络侵权责任纠纷案[(2018)粤0192民初1322号],原告起诉被告的人工智能图片搜索技术从第三方网站抓取图片,相关搜索结果侵犯其名誉权;裴×犯提供侵入、非法控制计算机信息系统程序、工具罪案[(2018)川13刑终240号],被告人通过人工智能训练提高打码平台识别验证码的能力,增加他人QQ号被盗取的风险;张×、陈××、张××等提供侵入非法控制计算机信息系统程序工具罪案[(2018)浙0602刑初101号],被告利用识别图片验证码的AI人工智能程序,提高打码平台识别验证码的能力,帮助他人批量注册或盗取QQ账号。从未来的趋势来看,人工智能纠纷通过司法途径进行解决的情形必然持续增加。

事实上,从美国人工智能的治理实践来看,法官在化解人工智能所带来的伦理难题和道德争议中扮演着非常重要的角色。除了技术专家之外,研究者希望通过司法过程推动人工智能活动中不同利益诉求的竞争、诉辨与对抗,由法官从中立的角度完成人工智能技术性与道德性的价值衡量。未来我国人工智能纠纷也需要向司法解决途径进一步推动。在这一背景下,为了弥合技术与法律之间的鸿沟,诉讼法中的专家辅助人制度也许可以成为一个适用的接口。我国现有专家辅助人制度(“有专门知识的人”)见于《民事诉讼法》第79条,是指具有专业知识的人,经当事人申请并经人民法院允许,代表当事人对鉴定意见进行质证,或者对案件事实所涉及的专业问题提出意见,是对鉴定人制度的补益。目前,我国法律还没有明确专家辅助人意见的性质及其法律效力,对于人工智能纠纷中专家辅助人意见,可以参考美国《联邦证据规则》第702条“专家证人证言采信规则”,基于以下因素予以综合制定:该意见是否建立在充足的事实和资料基础上;是否是可靠的科学方法或原理的产物;该科学方法或原理是否可靠地运用于案件事实。

六、结语:面向未来的人工“善智

人类社会总是处在发展和演进之中,在智能时代不断前进的滚滚车轮之上,法律亦在不断调整、适应和更新。人工智能作为一项新兴科技,已然成为国家竞争的新场域。2016年以来,世界各国高度关注人工智能的发展与治理,相关的政策规范频频出台,出现了共同冲击人工智能制度高地的竞争样态。对于人工智能的道德性实现,同样应该遵循国内与国际相联系、历史与现实相关联的发展思维。一方面,人工智能治理的全球探索是一个借鉴样本。通过借鉴,可以在较短时间内学习和掌握有益经验,降低因调查、论证、试错等过程产生的成本。但是,人工智能的道德性实现应充分尊重我国在社会、经济、技术发展中的阶段性和客观性,铺设符合科学精神、法治理念、人文关怀的治理进路,避免“无前提的移植,无边界的应用,无定性的普及”。另一方面,在原则导向治理的框架内谋求人工智能道德性的共识,避免出现恶性制度竞争。新兴制度的不断出现强化了制度的聚合效应,产生制度服从(institutionaldeference)现象。未来全球数字经济的竞争将会从要素竞争,进入长期的以法治为核心的制度竞争阶段。在这一阶段,如果对于人工智能的道德性缺乏共识作为秩序框架,可能会产生不正当的制度竞争行为。

因此,在全球范围内实现人工智能的道德性是当下与未来人类社会的共同议题。人工智能的全球治理仍处于共识性规则框架的探索阶段,从竞争到合作,从单一到多元,对于人工智能道德问题的审慎考量和进路探索,使其呈现为一种过程(process),而不是简单的目标(destination)。人工智能的道德性可以成为人工智能全球治理的基础,穿越科技、经济、文化的差异最终落脚于文明与文明之间的合作。人工智能的道德性实现,既是一个国家人工智能法治的重要组成部分,也是全球治理框架的共同叙事,使人工智能“善智”的宏大蓝图真正有助于人类,有益于未来,有益于人类命运共同体的建构。

 

作者:徐玖玖,中国社会科学院法学研究所博士后研究人员。

来源:《现代法学》2021年第3期。

中国社会科学杂志社

当前,人工智能被深度应用于社会的各个领域,推动了社会生产效率的整体提升。然而,作为一种具有开放性、颠覆性但又远未成熟的技术,人工智能在带来高效生产与便利生活的同时,不可避免地对现有伦理关系与社会结构造成冲击,且已引发不少伦理冲突与法律问题。在技术快速更新的时代,如何准确把握时代变迁的特质,深刻反思人工智能引发的伦理风险,提出具有针对性、前瞻性的应对策略,是摆在我们面前的重大时代课题。

技术伦理风险

技术是一把双刃剑,其在推动社会进步的同时,也在很大程度上带来了技术风险。人工智能技术也是如此。现阶段,人工智能的技术伦理风险主要体现在以下三个方面。

人工智能的设计风险。设计是人工智能的逻辑起点,设计者的主体价值通过设计被嵌入人工智能的底层逻辑之中。倘若人工智能设计者在设计之初,秉持错误的价值观或将相互冲突的道德准则嵌入人工智能之中,那么在实际运行的过程中便很有可能对使用者生命、财产安全等带来威胁。

人工智能的算法风险。算法是人工智能的核心要素,具备深度学习特性的人工智能算法能够在运行过程中自主调整操作参数和规则,形成“算法黑箱”,使决策过程不透明或难以解释,从而影响公民的知情权及监督权,造成传统监管的失效。人工智能算法可能在不易察觉或证明的情况下,利用算法歧视或算法合谋侵害消费者的正当权益,进而扰乱市场经济秩序和造成不公平竞争。近年来被广泛曝光的“大数据杀熟”,正是这一风险的具体体现。

人工智能的数据安全风险。隐私权是人的一项基本权利,隐私的保护是现代文明的重要体现。但在众多的人工智能应用中,海量的个人数据被采集、挖掘、利用,尤其是涉及个人生物体征、健康、家庭、出行等的敏感信息。公民的隐私保护面临巨大挑战,人工智能所引发的隐私泄露风险已被推到风口浪尖。而不少隐私泄露事件的发生,也在一定程度上加深了公众对人工智能广泛应用的担忧。隐私保护与人工智能的协调发展,已成为当前亟待解决的问题。

社会伦理挑战

人工智能不仅有着潜在的、不可忽视的技术伦理风险,伴随数字化的飞速发展,人工智能对现有社会结构及价值观念的冲击亦愈发明显。人类社会的基本价值,如尊严、公平、正义等,也正因此面临挑战。

人工智能的发展对人类道德主体性的挑战。2017年智能机器人索菲亚被授予沙特阿拉伯王国公民身份,这引发了许多人对人工智能挑战人类主体性的担忧。通常人被认为是唯一的道德主体,人的道德主体性的依据在于人的某些精神特点(如意识、思维)。当前,人工智能虽仍处于弱人工智能阶段,还无法形成自我意识,但是,智能机器人不仅在储存、传输、计算等多方面的能力超越了人脑,而且借助材料学等现代技术,智能机器人可能在外形上“比人更像人”,甚至拥有更丰富的情感(比如索菲亚能够模拟62种面部表情)。这样的智能机器人究竟是否是“人”?是否应确立为道德主体?如果赋予人工智能主体资格,那么其究竟是一种与人类对等的主体,还是一种被限制的主体?这些问题表明:人工智能对人类道德主体性的挑战,不只是电影小说中的浪漫想象,而是已日益成为一种现实风险。

人工智能的发展对社会整体公平正义的挑战。首先,人工智能的发展可能加剧社会的贫富差距。由于年龄、所在地区、从事行业、教育水平等的差异,人们接触人工智能的机会并不均等,实际使用人工智能的能力并不相同,这就造成了“数字鸿沟”现象。“数字鸿沟”与既有的城乡差别、工农差别、脑体差别等叠加在一起,进一步扩大了贫富差距,影响了社会发展的公平性。其次,人工智能的发展可能引发结构性失业大潮。由于智能机器相较于人类工人有着稳定、高效等优势,越来越多的人类工人正在被智能机器所取代,成为赫拉利(YuvalNoahHarari)在《未来简史》中所谓的“无用阶级”。麦肯锡全球研究所的研究数据显示,到2030年,全球将有8亿人因工作流程的智能化、自动化而失去工作。虽然人工智能的发展也会带来新的工作岗位,但是由于“数字鸿沟”的存在,不少人并不能找到新的工作,结构性失业大潮可能汹涌而至。这将成为激化社会矛盾、破坏社会稳定、挑战社会公平正义的又一重大潜在风险。

应对防范策略

技术伦理风险与社会伦理挑战的图景展示表明,人工智能“安全、可靠、可控”的良性发展依然任重道远。对于人工智能风险、挑战的应对防范,事关未来社会的发展方向与人类整体的前途命运,需要我们运用哲学的反思、批判,作出审慎恰当的抉择。

确立人工智能发展的基本价值原则。面对风险、挑战,我们应当避免马尔库塞(HerbertMarcuse)所说的“技术拜物教”倾向,要将伦理、道德等价值要素纳入到人工智能发展的内在考量之中,尽快构建起具有广泛共识的人工智能伦理体系。应确立如下基本价值原则,作为建构人工智能伦理体系的“阿基米德支点”。一是人本原则。人工智能始终是“属人”的造物,是为增进人类的福祉和利益而被创造出来的。无论人工智能有多么接近“图灵奇点”,也不应改变其属人性。人本原则是人工智能研发、应用的最高价值原则。二是公正原则。人工智能的发展要以绝大多数人的根本利益为归趋,不能片面地遵循“资本的逻辑”与“技术的逻辑”,坐视“数字鸿沟”的扩大,而应当让每一个人都拥有平等接触、使用人工智能的机会,从而使绝大多数人都能从人工智能的发展与应用中受益。三是责任原则。明晰道德责任,对于防范和治理人工智能伦理风险具有重要意义。要加强人工智能设计、研发、应用和维护等各个环节的责任伦理建设,尤其要注意设计者、开发者的道义责任感培养,明确各方主体的权利、义务和责任,建立健全完备、有效的人工智能事故追究问责机制。

建立人工智能发展的具体伦理规范。在确立人工智能伦理基本原则的同时,还需要制定人工智能产品设计者、开发者及使用者的具体伦理规范与行为守则,从源头到下游进行规范与引导。针对人工智能的重点领域,要研究具体细化的伦理准则,形成具有可操作性的规范和建议。应当加强教育宣传,推动人工智能伦理规范共识的形成。进一步,可以将取得广泛共识的伦理规范嵌入于算法之中,避免人工智能运行过程中的“算法歧视”与“算法欺诈”问题。此外,要充分发挥伦理审查委员会及其相关组织的作用,持续修订完善《新一代人工智能伦理规范》,定期针对新业态、新应用评估伦理风险,促进人工智能伦理规范的与时俱进。

健全人工智能发展的制度保障体系。在社会层面,应加大对“数字弱势群体”的政策帮扶,如税收减免、财政补贴等,确保人工智能发展的共同富裕方向。面对可能到来的结构性失业问题,可以为劳动者提供持续的终身教育和职业培训。在法律层面,应积极推动《个人信息保护法》《数据安全法》的有效实施,建立对人工智能技术滥用与欺诈的处罚细则,逐步加快《人工智能法》的立法进程。在行业层面,应加强人工智能行业自律体系建设。建立并充分发挥伦理委员会的审议、监督作用,加强国际合作,推动人工智能行业发展朝着“安全、可靠、可控”的方向健康发展。

(作者单位:南京大学哲学系)

人工智能之于法律的可能影响

原标题:人工智能之于法律的可能影响

智能时代由人工智能(简称AI)发展而来。人工智能主要运用在开发某些项目,研究某个理论和探索智能技术等领域,其是信息时代的一门新科学,它的发展将会不断改善人类的生活,引领人类进入新时代。随着时代的发展,人们的生活越来越离不开人工智能技术。目前,人工智能技术已经渗透到人类生活的方方面面。从人类驾驶汽车到无人驾驶汽车,从人类战斗机到无人战斗机,甚至医疗等方面纷纷离不开人工智能,人工智能不断改善人们的生活。人工智能技术是为人类服务的,不能超越人类的底线,更不能对人类造成伤害。当然,人工智能的发展必然会带来一些问题,这就需要制定一定的法律法规对人工智能进行管理、约束,这样才能更好地为人类所用,才能让人类过上更好的生活。

人工智能领域不容忽视的法律问题

人工智能与劳动者劳动权保障。人工智能在机械制造方面也有重大突破,机器人是人工智能技术的主要研究成果。由于机器人的出现,将人类从繁重的劳动中解脱出来,节省了大量的人力资源和物力资源,同时也让人类从一些危险的工作中解脱出来。人工智能技术运用到工业生产当中,这样既节省了雇佣劳动人员的资金又提高了生产的效率,推动了工业经济的发展。但是,人工智能技术让人―机关系成为社会生活的一部分,使得社会构造可能产生本质性的变革。

人工智能提高司法审判和行政工作效率。将现有的法律法规和法律文献以及判决文本储存在电脑当中,是目前为止非常安全的手段。人们通过计算机的记忆和文字搜索功能翻阅资料,节省了人们的大量时间。计算机系统还弥补了人类的记忆力不足和文字检查不正确等问题,这同时省去了律师查询文件的劳动和解决问题的推理活动。这些都依靠人工智能计算机系统完善的推理代码以及处理大量数据的功能。律师可以通过计算机系统对数据进行统计分析,推算出最好的法律解决方案。在律师接到一个新案例之后,就可以利用人工智能计算机系统对案件进行统一分析并给出合理的意见。计算机系统可以对逻辑程序,交易记录,日常消费,人口籍贯等方面进行行政化管理。所以说人工智能的崛起必然能提高司法的审判和行政工作的效率。

人类隐私保护的人格权问题。网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。无论是现今还是未来时代,将互联网、大数据、人工智能这些元素整合之后,人们可以查阅信息的手段越来越多,自身的信息再也没有秘密性可言。因为数据可以广泛查询,那么对于个人来说自身的隐私就可能会被曝光,所以面对这个时代应该采取一定措施来保护自身隐私不被侵犯。主要有下列几点建议:第一个方面是对自身的隐私保护意识增强。在这个科技进步的时代,人工智能逐渐进入生活当中,人们可以通过机器来对别人的隐私进行攻击,因此如果想要保护自身隐私,那么就应该减少对机器的信息泄露。第二个方面是树立企业保护用户隐私安全的意识。企业自身一定要有保护自身用户的一切信息安全的义务和责任,这也是用户信息安全是否能得到良好的保障前提。第三个方面颁布有关用户信息安全的法律。让用户从根本上认识到有法律可依靠。该法律不但要落实到各个企业,而且要走入人们的生活当中,而且在执行法律的过程中,应该按照严格的法律规定来执行,这样才能使个人信息安全得到保障。

法律如何“智能”地应对人工智能化

制定和完善相关的道德法律准则。现在科技的发展不单单可以使人们生活更加便捷,而且还可以加快社会的进步。与此同时,也会有一些弊端浮出水面,如果推动人工智能来服务人类,使人类文明上升到更高的层面,忘记了以人为主的本真,人们就很难接受人工智能。那么如何来控制以人为主,我国推出了一系列法律准则来约束这项要求。人工智能技术是现阶段科学家努力想要达到的效果,该项技术还是比较新颖,没有严格的法律规定来使用这项技术,同时对于这项技术的开发还没有法律的约束。由于这项技术刚刚进入人们的生活,其需要法律来约束,要根据后续的一系列问题来进行新的调整,从而可以使这项技术更好地被人们所利用。

构建以技术和法律为主导的风险控制机制。由于现在科技的发展,对于人工时代的到来所造成的一系列风险应该如何来先行处理和防范成了现在科学家急需攻破的难题。法律控制是处理风险的主要手段之一,人们可以通过技术上的控制或是法律上的控制来对这项技术进行有效管理。制订法律的人必须站在人们的角度,注重风险防范的重要性。还要利用其他的法律来对人工智能这项技术的其他领域扩展进行限制和约束。通过技术上的管理和控制有效地降低了风险。对于人工智能技术造成的风险我们应该做出有效地防范措施,不单单在法律的基础之上来制定措施,而且也要在不伤害他人的利益基础之上来进行该技术的约束和管理。与此同时,构建一个完善的体系来进行人工智能技术的管理。

运用智能与传统相结合的方式对人工智能的社会应用情况进行法治监督。对于人工智能技术的发展趋势许多科学家做出了假设,该项技术一定会在互联网的基础之上,采集大量的信息来进行技术上的提升。虽然这样有利于人工智能技术的发展,但是由于信息量的不断提升,对于管理这项技术也有一定的难度。如果监管部门没有做好本职工作,那么不法分子就有机可乘,进入其内部窃取信息,从而导致损失较大利益。这对人工智能技术的发展部门来说尤为重要,所以要求监管部门做到与时俱进,将整个人工智能技术的运行做到心中有数。第一个方面就是需要监管部门根据不同的区域来制定不同的监管制度,但是要遵循以人为本的角度来进行管理,还需要完善的整体体系来进行监管,以便于监管部门发现在发展人工智能技术过程当中出现违反规定的行为,可以及时出手制止;第二个方面就是需要企业做到应对一些紧急情况的智能化机制,研发人工智能技术过程当中,如若发现紧急情况及时向企业内部进行汇报,然后再经过这个机制进行数据上的分析,最后制定一系列的方案来解决问题。假设出现不能用机制来解决的问题,可以采用强制断电或者是切断网络的措施来解决问题。在人工智能技术研发的过程中,要遵循颁布的法律进行研发。

人工智能革命引发的法律问题才刚刚开始,法律研究者需要秉持理性主义精神,不断拓展知识储备,跟进理论创新和制度创新,探索和发现一个更适合人工智能时代的法律制度体系。综上所述,在这个人工智能时代,我们相信法律制度的理性之光与科学技术的智慧之光将交相辉映、大放异彩。

(作者为中央司法警官学院副教授)

【参考文献】

①吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》,2017年第9期。

人工智能的规范发展主要依靠法律一辩稿【手可摘星辰】

谢谢主席,问候在场各位。我方今天的观点是,人工智能的规范发展主要依靠法律。开宗明义,概念先行。所谓人工智能就是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能的发展即人工智能由简单到复杂的变化。至于规范,则是给人工智能制定条例使其发展符合人类利益。伦理即人伦道德之理,人与人相处的各种道德标准。法律则是由立法机关制定,国家政权保证执行的行为规则。我方今天的判断标准是何者能给人带来更大的利好。下面我将从以下三个方面进行论述。

人工智能的道德,谁来塑造|对话

1.28知识分子TheIntellectual

人工智能伦理的下一步是什么?|图源:pixabay.com

导读

2021年11月,经过两年时间的准备,联合国教科文组织(UNESCO)发布关于人工智能伦理的建议书,这是首个全球性的人工智能伦理标准,参与国家多达193个。

建议书呼吁各国采取数据保护行动,提出人工智能系统不得用于社会评分或大规模监控目的。

《知识分子》就该建议书的内容对话UNESCO专家组成员曾毅,他认为:

●人工智能曾经是一个科学畅想,但在当下是一个“伞概念”,包括各种涉及算法的技术;

●“相称性”应当是人工智能应用时的重要原则;

●人工智能原则上不应应用于大规模监控和社会评分,但也应有例外情况;

●伦理规则不应只在人工智能产品的设计阶段起作用,只有在全生命周期真正做技术落地,才有可能真正实现治理;

●人工智能在研究过程中不需要太多限制的说法是误区,学界应当在人工智能技术发展和伦理治理中发挥引领作用;

●只有人工智能的发展和治理的深度协同,才能最终实现人工智能的可持续稳健发展;

●未来人工智能特别应当在推进生物多样性与生态发展、气候治理、文化交互等领域发挥赋能作用,助力全球可持续发展目标的实现。

撰文|王一苇

责编|陈晓雪

●●●

全球化进程中,人工智能在每个国家的发展并不相同,一些国家是技术的引领者,而另一些是技术的被动接受者。此前,美国、中国等国家地区及欧盟、经济合作与发展组织(OECD)、G20等组织也发布过有关人工智能伦理的相关文件,但这些文件主要是回应本地区的问题,而缺少对全球其他地区的关注。

“欧盟在制定相关标准时,不会考虑亚洲的关切……不同国家的文化背景使得他们对于技术阵痛的观察视角不同。”中国科学院自动化研究所人工智能伦理与治理中心主任、国家新一代人工智能治理专委会委员曾毅说,“而UNESCO包含了几乎所有的主权国家和相关地区,应当说是最广泛的共识。”

他指出,没有任何一个国家能预知到所有可能的潜在风险,各个国家根据自己国家的价值观、社会伦理和技术发展阶段来考量。这就需要大家同步互补的观点,互相学习和交流。

UNESCO的建议书以尊重、保护和促进人的尊严、人权和基本自由,环境和生态系统的蓬勃发展,确保多样性和包容性和和谐与和平共处为价值观,提倡公平非歧视、可持续、隐私等原则。

建议书认为,“人工智能”这一概念随发展而变化,因此不给出唯一定义,只将其视为“有能力以类似于智能行为的方式处理信息的技术系统”,其中,包含模型和算法是其主要特征。

曾毅在中国科学院大学和清华大学任职,既是类脑智能模型的研究者,也“跨界”钻研人工智能伦理与治理。他是起草教科文组织建议书的24位全球专家之一,同时也是中国参与协商该建议书的代表。多个国家讨论出一个共同的伦理标准并非易事,他坦陈“这是一个求最大公约数的过程”。

第一版草稿形成后,联合国自2020年开始组织区域性的对话,同时教科文组织也把第一版草稿发到各个会员国,正式征求国家建议。2021年6月份左右,193个会员国派出代表,进行政府间磋商,对文本当中的每一个段落做逐字逐句的修改。

针对这份建议书,《知识分子》与曾毅聊了聊他参与起草的过程和对人工智能伦理现状的观察。

为了表述的简洁和清晰,访谈稿略有编辑。

知识分子:建议书称“无意对人工智能作出唯一的定义”,只探讨“人工智能系统中具有核心伦理意义并且在国际上已形成广泛共识的特征”,为什么?我们现在说的“人工智能”到底指的是什么?

曾毅:每个机构、国家,在人工智能战略里对人工智能的定义都不一样,在这上面达成一个全球共识并不必要。它本身就是一个与时俱进的概念,是快速迭代的。人工智能的定义本身也需要适应时代发展。

一开始,人工智能是一个科学畅想。1956年的达特茅斯会议(作者注:普遍认为是人工智能领域的发起会议)上,发起人JohnMcCarthy说,这个会议的目的是“从一个猜想出发,即原则上,智能每个方面的学习方式和特征都能被精确描述,使得机器能够模拟它们”。[1]即在计算机系统上重现人类的心智。这种重现不仅仅是行为上的,更是机制上的。

人工智能最开始的目标是推进科学进展,使人们生活得更好,从很多领域内,尤其是体力劳动中,把人解脱出来。现在人工智能的应用在替代劳力的方面确实比较相关。

但几十年后,人工智能变成了一个umbrellaterm(伞概念,指概括性的术语),特别是面向产业的时候,不管是自然语言处理、数据挖掘、机器视觉等,都叫人工智能。

现在的人工智能已经不仅仅是一个科学探索的领域。现在一个学生做了一个新算法,比如用户上传图片,人工智能就画一个类似的铅笔画出来,谁都可以用。这个图像可能就存在一个大学实验室的机器上,机器获取了你的数据,却不一定有人仔细思考如何去保护你的数据。但个人信息一次的丢失就意味着终身的风险,你甚至都不知道这样的信息丢失在10年20年后对你来说意味着什么。你没有想过,做应用的人也没有想过。别有用心的人就有可能通过各种途径收集数据,对我们产生负面影响。

尽管我非常不喜欢,但现在大家把这些东西叫做人工智能,它的服务出现在我们生活中。而创造程序的人几乎没有经过任何伦理学培训。

2016、2017年的时候,特别在中国,学界和业界对人工智能伦理的关注非常少,甚至有反对声音认为人工智能伦理会阻碍发展,很多人问我。我说,人工智能治理的目的就是保证人工智能稳健、健康的发展。它阻碍的是野蛮生长。

2018年开始,我在中国科学院大学开设了一门人工智能哲学与伦理的课。当时开课很困难,大家说你又不是伦理学者,凭什么讲这样的课?诺贝尔奖和图灵奖获得者、卡耐基梅隆大学的司马贺(HerbertSimon)写文章[2]讨论过一个观点,好的交叉学科研究,一定是领域A的专家变成半个领域B的专家。人工智能伦理也是这样的。

80%来上我的课的学生都是工学相关专业,20%来自人文学院。对于技术研究者,人工智能创新几乎每走一步,都可能涉及社会关怀、社会伦理,他们需要知道注意哪些社会伦理问题,需要了解未来二三十年人工智能作为一个道德主体可能对社会造成的挑战;而从事科学技术哲学研究的学生,未来将会是中国人工智能社会相关领域重要的意见领袖,他们需要知道人工智能真正的进展。

知识分子:怎么看待建议书中“人工智能不能用于大规模监控和社会信用评分”的表述?

曾毅:人工智能不能用于大规模社会监控和社会信用评分,是政府间磋商时德国的学者提出、列进去的。

说到这个,就要提及我们讨论的一个概念叫proportionality(相称原则),意思是,不是什么时候人工智能都好,不需要的时候就不要用。现在很多技术创新者会提出makingAIeverywhere(让人工智能无处不在),我看到的时候就觉得,有必要吗?

以城市治理为例。舒可文先生的著作《城里:关于城市梦想的叙述》指出,城市的规划,一半是野蛮生长,一半是规划,这才叫做城市。因为城市中除了技术还有人际关系,它的形成方式是多样的。人工智能也不是什么地方都要去介入,应当适度使用。

不过我有一点保留意见,即使在欧盟的人工智能法中,大规模社会监控这件事也是有例外的。比如抓逃犯、寻找丢失的小孩、威胁国家和社会安全的特殊情况,是可以去应用相关的技术的。中国也在这些领域应用了这些技术,如寻亲打拐,效果也很好。但在教科文组织的规范中,并没有明确给出例外情况,我觉得不是特别合适。

社会评分当中是否要使用人工智能,我觉得确实需要慎重思考。

社会信用系统现在是一个精确匹配的自动控制系统,不是人工智能,没有学习能力。很多规则都是清晰的、人类定义的规则,比如违反交规的扣分和罚款你不交,但有钱去买机票,这个就说不过去。但如果基于大规模的数据去学,学到规则后应用到社会信用评分中,我作为普通公民也会比较担忧,因为学到的这个规则里,很可能有人类的偏见,如果没有人类来辨别,直接应用很可能有潜在风险。

例如,推荐工作的人工智能系统,给40多岁的男性推荐高管职位,给28岁的女性推荐服务员职位,这就是系统学到了社会的偏见。谁说28岁的女性不能当高管呢?人工智能现在没有真正理解的能力,它甚至不知道什么是男女,不知道什么是不公平,也不知道什么是身体和心理的伤害,那么怎么可能对这种偏见去做处理?

曾毅在看一本讲全球公平的图书,他说,“未来使机器人真正理解公平”是AI伦理的核心|图片由曾毅提供

有些人说,技术是中立的,我不同意这个说法。我觉得说技术中立是一个借口。技术学到了偏见,但没有去处理,它还是中立的吗?推荐算法没有加入干预的过程,而推说这些都是社会的问题,这都是在找借口,社会的问题不代表你没有解决的办法。

正是因为有这样潜在的问题,在没有人为筛选和有意监督的情况下,把人工智能应用到社会评分领域,可能会造成巨大的负面效应。目前我还没有看到这样的例子,希望在哪里都不要发生。

知识分子:由于新冠疫情,各个国家都开展了不同规模的社会监控和信用评分,这和上述原则不是背道而驰吗?

曾毅:2020年3月份,MITTechnologyReview做了一个工作,分析了各个国家contacttracing(密接追踪)的软件[3],评价上,如果强制收集信息就很糟糕,不强制就好一点;国家运营的话也很糟糕,私营的就好一点。可以看到,中国的评分很糟糕。我认为它的评分很不客观,它只考虑了伦理方面。

选择性地向用户要求信息,实际上降低了这个系统的有效性。如果系统使用过程中采取并非强制而是完全自愿的原则,有可能导致密切接触网络的关键数据缺失,使得系统的数据分析无效,或者效果很差,那么我们为什么要用它?去用一个伦理设计上更道德、但应用层面效果很差的系统,还不如不用。Wired杂志后来有个报道[4],说西方国家的contacttracing似乎没有亚洲国家那么有效。有效性到很后期的时候才被西方国家提上日程讨论。

在这个过程中,我们要学到的是如何平衡。这种平衡不是妥协。接受为了疫情而采集温度和人脸信息的数据,不意味着让渡隐私。2020年底,在健康码上输入身份证就可以获取到明星的素颜照,这就是开发健康码系统的机构没有很好地保护个人数据。(作者注:2020年12月29日,对于北京健康宝“代查他人健康状态功能,有时不需要进行人脸识别”的情况,开发北京健康宝的单位北京市经济和信息化局大数据建设处(智慧城市建设处)回复称:“此问题已解决。”事件中未见问责。)

如果相关的机构不能有效保护这些数据,是应当负责任的。2021年11月1日起施行的《中华人民共和国个人信息保护法》,规定个人信息处理者应制定内部管理制度和操作规程,加密,安全培训,制定安全事件预案等方式确保其收集的个人信息的安全,而如果违规违法,则将面临从警告、罚款、停业到刑事处罚的惩罚。此外,2019年起施行的《儿童个人信息网络保护规定》专门针对不满14岁的未成年人信息保护作出规定,违反者由网信部门和其他有关部门依据职责,根据《中华人民共和国网络安全法》《互联网信息服务管理办法》等相关法律法规规定处理;构成犯罪的,依法追究刑事责任。此外,国家互联网信息办公室近期刚结束征求意见的《移动互联网应用程序信息服务管理规定》修订版规定,应用程序的发行者和发布平台应接受社会监督、设立举报机制,对于存在数据安全风险隐患、违法违规收集使用个人信息行为的,或者损害个人、组织合法权益的应用程序,应当停止提供服务。

即使这样的系统是必要的,这不代表用户以任何形式让渡了隐私。它其实提出了更严格的要求,在满足隐私保护约束的前提下,才可以采集信息。

政府对于技术发展的管理和治理有一个学习的过程,而基础设施研发团队如果伦理意识淡薄、安全意识缺位,就会使得购买了服务的政府要为可能出现的纰漏背书。政府一定开展了质量评估,但是由于AI伦理专家的缺位或者设计的缺陷,并不是所有的伦理问题能够在评估阶段发现。政府应该为此负责,但是由于部分信息不透明,有时候我们可能无法了解后续处理情况。在这种情况下,在社会舆论监督的影响和政府的督促下及时调整系统设计与实现,是底线。

知识分子:纸面上的伦理规则,如何落到现实中?

曾毅:伦理原则即使在设计阶段发挥了一些作用,但在算法实现、产品服务和产品部署的过程中如果不注意,都可能带来各种各样的问题。只有在人工智能产品的全生命周期(包括它的上下游客户)真正做技术落地,才有可能真正实现治理。

举个例子,2019年杭州野生动物世界的案子(作者注:杭州市民郭兵于2019年购买杭州野生动物世界双人年卡,并确定指纹识别入园方式,但野生动物世界此后强制要求激活人脸识别,否则无法入园,郭兵因此提起诉讼,该案以郭兵胜诉告终,被称为“全国人脸识别第一案”),其实就包括使用和部署环节的问题,知情同意没有做好。此外,采集的数据到底是保存在动物园还是相关企业,企业的保密和数据加密资质是什么样的?这一切都不清晰。

而在伦理原则还未落地、还不是法律的时候,如何实施?换脸软件ZAO和教室表情识别看学生是否认真听讲,是两个具体的例子。ZAO在上线后三四天下线,被工信部约谈;而教室表情识别的事发生后,教育科技司表态,在不必要的场合就不需要引入人工智能,建议不要使用,那时就基本上叫停了相关服务的发展。当时绝大多数人脸识别企业都有做类似尝试,有些可能已经形成应用,甚至规模化应用。据我所知,很多企业的这条产品线基本也都停掉了。

法律讲的是底线,红线。科技发展过程中法律的守护底线红线作用永远不可替代。而科技伦理问题是法律之上的科技发展与社会之间的软性约束和契约。不触犯法律并不代表没有道德伦理问题。伦理道德对科技发展的考量和反思是确保科技健康发展不可或缺的要素。科技发展与科技伦理形成双螺旋结构,科技才能稳健地助力人类文明的繁荣。

企业创新者要做全生命周期的伦理落地,要自律自治。有些企业有专门的伦理委员会和伦理研究组,但有一些小企业或者初创企业没有这个能力,学术界和政府应该给他们提供伦理相关的服务,以公共服务的方式,避免这个问题,后面的监管会省很大力气。

我们现在也在和政府相关部门合作推进人工智能治理的公共服务平台。[5]

知识分子:人工智能是不是安全和人工智能是不是道德,有关系吗?

曾毅:人工智能安全和人工智能伦理是两回事,但它们不是不相关的事。安全是AI伦理的一个必要属性。

技术风险会引起社会问题。举例来说,现在的深度神经网络做看似智能的信息处理,但经常会犯人不会犯的错误。去年11月,世界公众科学素质促进大会在北京举办的时候,一个做新冠病毒感染肺炎筛查的企业说他们的准确率已经超过了医生,完全可以替代医生。那时候还没轮到我发言,但我当时不得不打断,我说毕竟这是一个科学素养大会,做的是公众科普(传达的信息要准确)。人工智能永远不应该代替人类决策,说完全替代医生,这是完全错误的。因为现在的人工智能系统很容易造成误诊。比如一个皮肤癌筛查的系统,一个角度照手上的小包就是99.99%的可能性,换一个角度就检测不到。这种错误医生是不会犯的。人工智能说是99.99%的准确率,但一张图像加一点噪声,就可能被识别为其他东西。

有人说,识别错了又怎么样呢?我举一个例子,谷歌的3D物体识别系统,有80%的概率将一个3D打印的乌龟识别为一把来福枪,20%的概率识别为其他东西,但没有一次识别为乌龟。设想这样一个场景,10岁的小孩拿着一个3D打印的乌龟站在马路边上,但监控系统把它识别为10岁的小孩拿着一把来福枪站在马路边。如果有人刻意制造这样的事件,对于社会的治安将是很大的挑战。

又例如未来的自动驾驶无人车,如果被黑客操控了,如果(被威胁方)不交钱就直接开到悬崖下,甚至用于攻击社会,这种风险都是技术本身的风险。

人工智能的风险要分等级,应当对应用紧迫、高风险的领域做合理的分级管理。例如自动驾驶的风险不仅仅在全自动驾驶的时候有,辅助驾驶时,如果视觉系统被攻击,检测不到图像,前面一片白,它就冲过去了。

最麻烦的事情不是技术解决不了这些问题,而是伦理意识的缺失。本来容易解决、可以防患于未然的事情没有人重视,在产品研发过程中没有解决,这才是现阶段我们最大的风险。所以为什么说号召大家把伦理原则嵌入整个产品的生命周期,就是这个意思。

知识分子:企业对于这份建议书有什么样的反馈?

曾毅:有一些企业会说,它似乎符合其中70-80%的原则,非常自豪。我就说,其实后面的20-30%才是最关键的。如果其中70-80%都不符合,可想而知你做的是一个什么样的产品。

如何去解决后20-30%的问题,我觉得是一个共同挑战。企业与学术界有距离,很可能不知道如何落地,或者有些问题现在大家考虑都比较少,就需要学界和业界共同努力。比如,大家都谈用户隐私,用户授权后,不满意了要撤销,不想用这个服务了,那么你得把我的数据删掉。在数据库里删掉用户数据很容易做到,但人工智能模型中,把用户的特征数据删掉,对于每个模型都很难。除非你重新训练人工智能模型。但对很多企业,重新训练要两个礼拜、一个月甚至半年才做一次,很难做到真正意义上的实时用户授权撤销。

这个问题很多人都知道,但学界和业界都没有做太多的努力,是因为它没有直接帮助你去获得经济利益,所以大家都不太积极。这是个非常糟糕的状况。我们说人工智能赋能可持续发展,(联合国所有会员国通过的)17个可持续发展领域里,大家都在集中做教育和医疗,因为最赚钱,但其他的领域像性别平等就少有人关注。以前没人重视气候行动,因为没有找到赚钱的方式,现在似乎又找到商机了。

真正可持续的发展,责任不光在政府,很多时候是一个生态共同体。按联合国规划,我们总共有不到十年时间实现这些可持续(发展)目标。如果仅仅是政府在推动,这个目标很难在十年内实现。

知识分子:学界在开展人工智能研发活动时,需要注意什么?

曾毅:一方面,我想纠正一个错误观念,认为在研究阶段不需要太多的限制。我觉得这是不对的。

例如做人脸识别算法,就算没有提供服务,收集了人脸来提升性能,是不是就不会有伦理问题?如果在研究阶段没有伦理考量,很容易因为利益引诱,成果或者副产品作用到社会,产生负面影响。

另一方面,伦理的前瞻性研究,学术界一定要发挥引领作用。一方面是在人工智能服务中加入道德约束,使得它更符合伦理道德规范;另一方面,未来是否能开发真正能自主学习、理解人类伦理道德的人工智能,是非常重要的学术挑战。

仅有产业界的努力是完全不够的,甚至几乎没有产业在做这样的事情。

可持续发展和治理是深度协同的关系,既不是竞争,也不是平衡,就像DNA的双链结构,互为支撑,使结构相对稳定。实现发展和治理的深度协同,最终才能实现稳健的发展。学术界应当前瞻性地作出引领工作。中国和阿联酋的人工智能规范中比较强调可持续,其他国家的可能没有那么明显。

以前人工智能研究考虑不多,但未来非常值得推进的方面有两个。一个是利用人工智能促进生态的可持续发展。2019到2020年澳大利亚大火,很多物种在这场大火中灭绝了,但你很少看到人工智能发挥什么作用,解决问题。(我们还是可以主动思考人工智能如何发挥作用)例如,人工智能技术可以用于监测和预测火势,无人车和无人机可以用于拯救火灾中的动物,甚至可以用于提前驱逐动物到相对安全的区域去。我国的大兴安岭也会遇到类似的挑战,但这方面的考虑和实践非常少。在教科文组织的指南成文过程中,各个国家都很关注生物多样性保护,大家对人工智能推进生态保护和可持续发展都很有共识。

人工智能在实现过程中也会带来碳排放。现在人工智能在向大模型方向发展,能耗是非常高的。而产业在推进大模型研发的过程中,基本没有考虑碳排放的问题。人工智能本身的目的是去替代一些体力劳动,但如果替代过程中碳排放的成本还高于人力,负面作用很大,是否值得就是个问题。我们自己做了一个研究,叫做AICarbonEfficiencyObservatory[6],人工智能碳能效的观测站。把所有人工智能大模型的碳排放情况列出来,让大家去看一看。

此外,指南中提到的另一个要点是人工智能应该促进文化传承。当时其他的代表提出人工智能促进文化传承,我说,传承是保护,没有交互,它可以更进一步,不仅保护文化,还可以找到文化之间的联系,通过人工智能赋能文化交互。比如你对法隆寺这个传统的佛教寺庙比较熟悉,但不熟悉故宫,它们之间的关联实际上非常多。你喜欢敦煌,而敦煌的文化其实和来自世界其他国家的文化是非常相关的。文化交互引擎(CulturalInteractionsEngine)[7]就是通过人工智能技术自动发现不同文化的景点和自然资源间存在着的关联。

现在,很多文化的问题是由于文化割裂引起的,而我觉得这是人工智能能够赋能的地方。很多人运用人工智能去制造隔阂,制造信息茧房,但人工智能真正应该做的是建立一座桥,帮助构筑不同文化相连的网络。

参考资料:

[1]https://250.dartmouth.edu/highlights/artificial-intelligence-ai-coined-dartmouth

[2]https://www.psychspace.com/psych/viewnews-7830

[3]https://www.technologyreview.com/tag/covid-tracing-tracker/

[4]https://www.wired.com/story/why-contact-tracing-apps-not-slowed-covid-us/

[5]https://www.ai-governance.online/cn

[6]http://ai-carbon-efficiency-observatory.ai-for-sdgs.academy/

[7]http://cultural-interactions-engine.ai-for-sdgs.academy/

制版编辑|卢卡斯

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇