《新一代人工智能伦理规范》发布
9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。《伦理规范》全文如下:
新一代人工智能伦理规范为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。
第一章 总则
第一条 本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。
第二条 本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。
第三条 人工智能各类活动应遵循以下基本伦理规范。(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。
第四条 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。
第二章 管理规范
第五条 推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。
第六条 积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。
第七条 正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。
第八条 加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。
第九条 促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。
第三章 研发规范
第十条 强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。
第十一条 提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。
第十二条 增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。
第十三条 避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。
第四章 供应规范
第十四条 尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。
第十五条 加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。
第十六条 保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。
第十七条 强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。
第五章 使用规范
第十八条 提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。
第十九条 避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。
第二十条 禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。
第二十一条 及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。
第二十二条 提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。
第六章 组织实施
第二十三条 本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。
第二十四条 各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。
第二十五条 本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。
国家新一代人工智能治理专业委员会
2021年9月25日
人工智能伦理问题的现状分析与对策
中国网/中国发展门户网讯 人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。
当前人工智能伦理问题
伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。
计算机伦理学创始人 Moore将伦理智能体分为4类:伦理影响智能体(对社会和环境产生伦理影响);隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。
当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。例如:人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于 Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。人工智能的滥用可能威胁公民隐私权、个人信息权。深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用 Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……
人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。
关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。
人工智能伦理准则、治理原则及进路
当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。
伦理准则
近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。
近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。
治理原则
美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。
习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。
治理进路
在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。
“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。
“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》11中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。
我国人工智能伦理治理对策
人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。
教育改革
教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。为更好地支撑人工智能发展和治理,应从4个方面进行完善:普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;在科技工作者中加强人工智能伦理教育和职业伦理培训;为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。
伦理规范
我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。当前有5项重点工作可以开展:针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。推动科研机构和企业对人工智能伦理风险的认知和实践。充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。
技术支撑
通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。
此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。
法律规制
法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。
国际合作
当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。
我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。
(作者:张兆翔、谭铁牛,中国科学院自动化研究所;张吉豫中国人民大学法学院;《中国科学院院刊》供稿)
我们该如何应对人工智能带来的伦理挑战
返回基金会动态列表>我们该如何应对人工智能带来的伦理挑战?作为第四次科技革命和产业变革的重要推动力量,人工智能技术正以一种迅猛发展的态势,推动社会生产力水平的整体跃升。然而,人工智能在为经济发展与社会进步带来重大发展机遇的同时,也会带来一系列伦理风险和挑战。
人工智能的广泛应用对人类社会的不同领域的伦理存在有什么影响?
我们应该制定什么政策来前瞻性地应对人工智能可能带来的伦理挑战?
2022年4月25日,中国发展研究基金会《人工智能时代的伦理:关系视角的审视》报告发布会线上举办,中国发展研究基金会副秘书长俞建拖介绍报告主要内容,多名相关专家学者以报告为基础,围绕上述议题展开深入探讨。
人工智能的伦理影响
《人工智能时代的伦理:关系视角的审视》(下称“报告”)从关系论视角出发,对人类智能、社会与伦理进行概述,解读关系论下人工智能伦理讨论框架,同时从市场经济、家庭、一般社会、国家和社会、国际关系、人与自然六方面分析人工智能的伦理影响,并在此基础上提出面向未来人工智能伦理发展的建议。
报告指出,人工智能在经济社会生活中的全面渗入有助于促进个人和组织的赋能,促进弱势群体的社会参与,扩展人的机会空间和自由,促进经济的繁荣,减少绝对贫困和剥夺,这些可以视为伦理增益。但是,人工智能的使用可能也会带来一系列伦理风险和挑战,包括失控风险、恶意使用、适应性风险、认知风险等,这些风险在不同的领域有不同的表现。
市场经济方面,人工智能在改善劳工工作环境、维护人的尊严、促进人力资本积累和经济繁荣等方面有积极作用,但同时也存在垄断、过度榨取消费者剩余、劳动力替代、阶层分化和固化等问题,并有可能深刻影响市场经济中的雇佣关系、竞争关系、合作模式、所有关系(所有权)以及相关的伦理规范。
家庭关系方面,人工智能的积极成果是使得一些家庭成员得以被解放,从而可以从事对家庭福祉更有益的事,但功能的疏解可能会使家庭成员之间的关系更加疏远、联系更松散。
随着社会需求的多样化,可能会出现人工智能扮演家庭成员角色的需求,如人工智能儿童、人工智能伴侣、人工智能长辈等,当人工智能开始介入家庭内部人际关系,原来用来规范人类家庭成员的伦理很难再直接适用,而且关系身份的传递也可能导致认知上的混乱。
社会伦理关系方面,一方面,人工智能广泛使用,可能会根本上重塑组织性互动,比如学校作为最重要的伦理再生产组织的教学理念、教学内容、教学方式也有可能发生重要变化。
而在一般非组织性的社会活动中,人工智能的应用以及数据信息环境的改变,社会可能更难在什么是真相和真实知识上达成共识,人们更容易陷入“信息茧房”,机器决策可能会产生“无用阶级”,“大数据+人工智能”对个人隐私侵犯也可能会逼迫人们采取面具化生存策略。
国家和社会层面,人工智能可以被广泛用于公共管理以及公共服务供给,使国家治理变得更加具有公平公正、民主参与、透明、负责任以及高效,促进国家的善治。
但是随着人工智能时代的到来以及虚拟生活方式的普遍流行,国家认同可能会被削弱,机器人税和普遍基本收入会被越来越多的考虑,但是也引发政府规模和权力的扩大,以及随之而来的政府与社会关系的调整,譬如公民对政府的高度依赖、政府社会监控的强化以及个人自由空间的压缩等。
来源:央视网
国际关系层面,人工智能正在成为大国竞争的胜负手和重要领域。从全球实现可持续发展目标的需求看,人工智能可以发挥重要的作用,但是地缘政治竞争的加剧可能会制约其潜能的发挥。人工智能在发达国家的开发和应用,也可能导致全球价值链发展趋势被重置,导致发展中国家被边缘化以及对发达国家的依附。
人工智能在军事领域的应用,包括智能武器的开发与部署、智能军事决策系统、非常规智能战争等,可能会引发军事战略的根本性变革,给国际秩序带来巨大的不确定性。
人与自然关系方面,人工智能的发展对提高资源的利用效率和减少攫取、减少对环境的破坏、更好地顺应和应对自然界挑战具有重要的意义。但是人工智能的发展也可能助长人类创造的雄心,特别是人工智能在生物改造领域的应用,对既有生态体系的影响具有很大的不确定性。
真知灼见:如何应对人工智能可能带来的伦理挑战?
来源:央视网
报告发布会上,北京大学哲学系教授何怀宏指出人工智能是一种区别于传统人造物的机器,其能力对人类而言还有很多未被发掘的部分,我们应该进一步思考人和人工智能这一特殊关系,思考如何促进人工智能发展、人工智能如何给人类赋能、如何深入具体地将人工智能运用到各个领域、以及人工智能的运用会带来哪些新的问题。
中国社会科学院哲学所科技哲学研究员、中国社会科学院科学技术和社会研究中心主任段伟文探讨了人工智能伦理治理的主体问题。他指出,当前实践人工智能领域的伦理规范主要是以科技公司为主体,政府也应积极的参与到该领域的伦理治理中,扮演积极的角色,更加灵活地进行适应性治理。
暨南大学教授、海国图智研究院院长陈定定认为当前社会的主要问题是伦理规范泛滥和冲突,应该建立一个通用的、全面的人工智能伦理规范。
武汉大学计算机学院教授、卓尔智联研究院执行院长蔡恒进指出,未来三五年内人工智能会有重大突破,元宇宙和Web3.0可以看作是人工智能的重要进展。在Web3.0时代,个体、企业、国家将会成为机器节点并融合为超级智能,这有可能会对社会伦理关系产生影响。
北京大学法学院副教授、北京大学法律人工智能研究中心副主任江溯指出,随着智能性技术广泛使用,社会可能会慢慢变成“全景敞视监狱”,个人的自由空间可能会被压缩。我们应该在法律领域探讨相关问题,研判人工智能应用的法律限度并加以约束。
主动应对教育人工智能伦理困境 —中国教育在线
人工智能(AI)赋能教育,让教育插上了腾飞的翅膀。教育人工智能实现了人存在方式的转变、优质教育资源的共享、学习方式的革新等。如上海普陀的课堂以微视频的形式,呈现数学、物理、化学和信息技术等学科上百个知识点,既实现了区域内教育优质化和均衡化,又满足学生的个性化学习需求。教育人工智能在促进学习环境、教学方式和课堂管理的转型升级,形成精准化和个性化的教育服务体系等方面发挥着巨大作用,但也产生了“自主性弱化”“知识至上”“情感忽略”等伦理风险。
教育人工智能的伦理困境
首先,数据化表征异化人的本质。教育的对象是人。马克思认为:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”可见,人是现实的、丰满的、完整的存在者,而不是抽象的、简化的数字或符号。数据是人工智能的养料,教育人工智能是通过精细行为识别系统将教育活动中的人和事进行数字化表征。如某些智能学情分析系统对学生在课堂上的“听讲”“书写”“瞌睡”“回答问题”和“互动”五种典型行为进行数字化表征,并开展实时的统计分析,以此作为开展教育活动的依据。教育人工智能通过数据认识教育主体,分析教育活动,人、行为或活动都是数据。数据化将人的本质简单化、线性化和机械化。当然,将教育中的人或活动进行数字化表征能创造更高的教育效益。但教育人工智能的数字化表征不仅侵犯了个体的隐私权,更严重是造成了人生命价值的破坏。
其次,精准供给削弱师生的自主性。自主性是人作为行动主体的人的基本特征之一,它是人类运用主观能动性、不断实现自我超越、推动社会发展的重要保证。因此,培养和发挥自主性既是学校教育的目标,也是促进学生学习的重要手段。人工智能在教育领域的运用使教育产品的开发和使用专业化、便捷化。教学过程中,教师只需要简单、机械地选择、运用这些教育产品,无需根据教育的情境、学生的需要和教学内容等要素,自主选择、自主决策、自主钻研,这导致教师的专业性日益丧失。在促进学生学习方面更是如此。教育人工智能能够通过检测学生的脑电波,感知学生的直觉偏好,分析学生的知识获取方式;同时,根据学生的学习数据,明确学生在学习过程中的缺陷和不足,教育人工智能可以根据学生的薄弱环节精准推送相应的知识点。学生只需坐等教育人工智能的定时定量定点的给喂。长此以往,学生对这种智能机器提供的知识来源越来越依赖,自主性也越来越缺失。
再其次,知识至上窄化育人内涵。联合国教科文组织在《反思教育:向“全球共同利益”的理念转变?》中强调,当今的教育要超越识字和算术,以学习环境和新的学习方法为重点,以人文主义为教育观和发展观,注重学生文化素养,培养学生尊重生命和人格尊严,坚持权利平等、社会正义、文化多样性、国际团结以及能为可持续的未来分担责任。换言之,当下的教育不应只关注知识,而忽视文化素养的养成。广泛运用于“教、学、评、测、练”的各个教学环节中的教育人工智能,归根到底是一种针对“知识”的教学系统。它根据学生的学习情况,精准地判断学生学习上存在的薄弱环节,明确哪些地方需要查缺补弱,然后,根据这些数据提供精准化的教学内容。教育人工智能实现了知识的精准化传授,提高了注知识教学的效果,但是也在某种程度上忽视发展和培养学生面向未来的六项关键技能(即6C):品德、公民、沟通能力、批判性思维和解决问题能力、合作能力、创造和想象能力,在教育过程中见“教书”不见“育人”。
另外,人机交互弱化情感体验。情感在促进学生开展深度学习方面具有重要价值。研究发现,个人的情感状态影响学习效果,而且个人的情感状态和对方的情感表达会影响互动的频率和层次。也就是说,教师的热情与学生情感的愉悦水平成正相关,教师向学生传递积极的情感信息,学生就能获取积极的情感体验,这有利于学生以更好的状态进行深度学习。教育人工智能在语音语调、体态语等富含情感要素的传递方面存在先天不足,即使当下人工智能在某些领域已经超越了人类,但是,它仍然无法获取、无法具备未被人类进行形式化表达的人类情感,如自适应学习系统、自动化辅导学习机器人和幼儿早教机器人等都无法进行情感表达。因此,在教学过程中,智能人无法、也没有向学生传达情感,无意中剥夺了学生的情感体验,同时也影响了学习效果。
人工智能技术与伦理规范协同发展保障“良心”
审视教育人工智能的伦理危机不是摒弃教育人工智能,而是通过对其伦理审视促进教育人工智能的更好发展,推动智能化手段与教育的深度融合。由于人工智能技术的不成熟和人工智能伦理保障机制未建立等原因,导致教育人工智能伦理问题随着人工智能技术的快速发展而日益凸显。面对教育人工智能存在的各种伦理问题,我们无需自塑为“卢德主义者”来抵制教育人工智能以消除可能存在的风险。因为,人类无法改变技术进步的历史进程,而技术也完全可被人类规训。因此,我们在开发、应用和治理教育人工智能,实现人工智能与教育的深度融合过程中,要坚持“以人为本”“合目的性与合规律性相统一”和“发展性”的基本原则,坚持人机协同发展,围绕“机芯”和“人心”两个维度,用“良心”造“良芯”。
人工智能的不科学、不合理开发和运用是造成教育人工智能的伦理困境的直接原因。人工智能技术与教育人工智能伦理规范协同发展是从源头保障教育人工智能开发与使用的安全性和规范性,使其符合“良心”的要求。“良心”强调教育人工智能产品的开发和设计要合乎伦理规范,并且确保智能技术得到善用,为师生的发展与成长服务。一是加强教育人工智能伦理研究。要加强教育人工智能的伦理研究,为伦理规范的制定提供指导性意见。二是制定教育人工智能行业伦理规范。2019年5月,OECD发布了首个由各国政府签署的AI原则,即“负责任地管理可信AI的原则”。这些原则之后被G20采纳,并于同年6月,在日本筑波市举行的G20部长级会议上提出了“G20人工智能原则”,包括“可信人工智能的负责任管理原则”和“实现可信人工智能的国家政策和国际合作的建议”。同时,《人工智能北京共识》也明确了人工智能的使用伦理与规范。可见,各国政府或组织已经初步尝试构建人工智能的伦理规范。教育人工智能应该根据教育行业的独特性,指向促进师生的成长与发展,结合教育人工智能的技术特点,设计切实可行的教育人工智能行业伦理规范。三是加强教育人工智能立法。加强教育人工智能事前、事中和事后立法,通过法律法规规范教育人工智能产品的设计、开发与利用,避免人工智能技术对教育活动造成破坏,规避教育人工智能的可能风险。
教育主体与智能技术协同发展确保“良芯”
化解教育与人工智能的融合过程中的伦理危机,一是建立教育人工智能的道德算法。为防御教育人工智能的伦理风险,需要借助深度神经网络,给教育人工智能构置道德算法,即“通过算法给智能机器嵌入人类的价值观和规范,以此让它们具有和人类一样的同情心、责任心、羞耻感等伦理道德。”让教育人工智能的算法遵循“善法”,如此可使教育人工智能在协助教师开展教育活动中进行道德决策,实施具有“教育性”的教学。
二是要树立和谐与优化共生的理念。人工智能无论如何发展都是“服务于人”。因此,我们要摒弃“机器——人”二元对立的观念,既要摆脱对人工智能的盲目崇拜,又需克服对人工智能的奴性心理。在教育人工智能的开发和应用过程中,自觉提升自身的数据素养、网络素养、媒体素养等,遵循人工智能的运作规律和教学规律,增强应用教育人工智能解决教育教学问题的能力,从而实现人与人工智能和谐共生,实现机器与人的协同共进。
三是在人工智能中设置预警机制。内置预警机制,实现风险预警,防范未来的风险,使未来可能出现的通用人工智能和超级人工智能能够服务于全人类的利益。通过开发设计“良芯”,保障“技术向善”,克服教育人工智能的伦理风险,发挥好教育人工智能“向善”潜力,服务于教育事业的发展。