探索人工智能社会治理的中国方案
探索人工智能社会治理的中国方案来源:光明日报时间:2019-12-2614:59:24作者:苏竣黄萃
作为引领未来的战略性技术,人工智能的迅猛发展将进一步释放历次科技革命和产业变革积蓄的巨大能量,给全球经济发展、国家治理、社会建设和人民生活带来重大而深远的影响,推动人类迈入以科技进步与产业革新为基础的智能社会。但也应该看到,人工智能在创造经济发展新引擎、推动人类文明迈上新台阶的同时,模糊了虚拟与现实、数字和实体的界限,给人类社会的法律规范、道德伦理、公共治理等方面带来了挑战。
人工智能时代呼唤全新的治理理念和治理形式。当前人工智能技术正深入发展,人工智能应用场景不断丰富,人工智能开放创新平台、人工智能创新发展试验区建设正如火如荼推进。利用好这一有利契机,加强人工智能技术发展过程中的人文社会影响研究,开展人工智能社会实验,建设更具有人文温度的智能社会意义重大而深远。
2019世界人工智能大会新华社发
建设有人文温度的智能社会是大势所趋
自16世纪科学革命以来,科学技术的“双刃剑”效应就成为人类社会发展进程中一个挥之不去的议题。科技进步使得生产力得以飞速发展,为人们的生产和生活都带来了极大的便利。但科技创新带来的两极分化、社会摩擦、生态破坏、伦理失范等负面影响也一直萦绕难散。英国著名科学家贝尔纳在其著作《科学的社会功能》中指出:“科学技术的发展本身既为我们揭开了改善人类生活的前景,也为我们开辟了毁灭人类的可能性。”如今,伴随智能时代的到来,科技的正负效应都在不断强化,形成巨大的张力,使得人类文明的前景更加迷茫。
随着人工智能发展与应用的深入,人—机器的社会结构,终将为人—智能机器—机器的社会结构所取代。可以肯定的是,人工智能超强的信息储存、超级模仿和深度自我学习能力,会把人类从各种危险、精密、烦琐、重复的体力和脑力劳动中极大地解放出来。其发展与推广应用会改变“不劳动者不得食”的人类社会基石,不劳动者照样可以丰衣足食,人类想象中的“乌托邦”甚至会因为人工智能技术成为现实。但值得注意的是,与传统科技相比,新一代人工智能技术最大的特色在于它能够具有和人一样进行思考和决策的能力。这种能力正是人类区别于动物,并能够建立起灿烂文明的核心因素。在历史的长河里,人类智慧的伟大之处不仅在于其对自然科学的孜孜以求,也在于其在技术、人文、社会科学领域创造出的累累硕果。然而,当人工智能开始替代人类进行思考与决策时,它们能否像人类一样,在理性之上兼顾感性认知,在追求效率的同时也顾及伦理、价值观、情感和文化。
一个有人文温度的人工智能社会,不仅要拥有更加高效的生产力,也要有更加丰富多彩的精神空间,更加深厚悠久的文化底蕴,更加公平公正的制度保障,更加包容和谐的人文关怀。这需要我们抓住人工智能技术应用刚刚起步、尚未形成锁定效应的这一良好时机,树立正确的价值观念,深入开展基于科学循证逻辑的实证研究,构建全新的人工智能治理体系,并对技术和产业发展形成反馈和规制,引导人工智能技术良性发展,及时规避大规模失业失能、资源财富分化加剧、数字和信息鸿沟加深、人类精神文化生活停滞、人工智能技术失控等潜在风险和危机。
消解人工智能技术发展中的隐忧
作为第四次工业革命的技术基石,新一代人工智能技术发展与应用给人类社会带来的好处自不必说,但我们也必须对人工智能所衍生出的风险和威胁保持警惕。人类对于人工智能技术负面影响的忧虑主要包括两个方面,一是对人工智能技术失控的担忧,二是对社会结构与社会秩序的重塑的担忧。英国科学家斯蒂芬·霍金和美国创新企业家埃隆·马斯克都曾不断发出对人工智能威胁的警告。霍金认为,人工智能会是“人类历史上最重大的事件,不幸的是,也可能会是最后的重大事件”。马斯克也指出人工智能之险尤甚于核武器。他们普遍担心具有人类决策能力的机器人最终将摆脱人类的控制,反过来奴役人类甚至灭绝人类。电影《流浪地球》里,宇航员怀疑国际空间站控制系统叛逃的情节,就反映了我们可能面临的这种隐患。创新工场创始人李开复则认为,人工智能对人类社会真正的威胁不在于技术层面,而在于对工作的含义、财富的创造和分配方式的打碎、重塑,由此“引发前所未有的经济不平等,甚至改变全球力量均势”。人工智能的发展会使大量工作被机器人取代,从制造业到服务业,各层面都可能有大量工作岗位消失。大规模失业的同时,财富迅速并大量集中到少数人手里,进一步加剧两极分化,带来严重的民生和政治问题。
科技进步既改变着人类社会,也塑造着人本身。对于人工智能的发展,我们首先应当树立正确的价值观念,防患于未然,应对科技创新带来的巨大冲击。一方面,我们应积极倡导建立负责任的研发和创新价值体系,在人工智能的研发创新阶段以及后续技术全生命周期,加强对科技创新过程中伦理问题的关注和控制,避免人工智能可能造成的不利影响。另一方面,要从人文社会科学的角度,加强人工智能的社会影响机理、规律与趋势研究,完善和强化人工智能发展的社会政策体系。人工智能技术给人类社会带来的负面影响,归根到底是对人类历经千百年所建立的具有深厚人文情怀的文明架构的全面冲击。因此,在大力推动科技研发的同时,我们也必须促进与新兴技术相关的人文社会科学研究的发展,实现自然科学与社会科学的交融共振,只有这样,才能从根本上消解人工智能技术发展中的隐忧。
深入开展社会实验研究,提升智能社会认知水平
要想解决人工智能技术的负面效应,实现对人工智能的有效治理,需要我们对人工智能时代的社会形态和特征具有全面而系统的把握和认知。而这种认知的建立,有赖于以实践证据为基础的实证研究,特别是社会实验研究的开展。
社会实验是种典型的社会科学研究方法,是以现实情境下的人、组织作为研究对象所开展的研究活动,目的在于通过某些社会、政治过程或技术变革导致的近似于理想实验的场景来研究社会科学的问题。约一百年前,为研究工业化社会所带来的影响,美国就曾通过组织大规模社会实验,史称“霍桑实验”,对进入工业文明时代后,人类的心理和行为问题进行了深入的解析。
如今人工智能技术已经融入当下人类社会和生活,而且正在以几何级增长的速度扩展自己的存在,人类社会正面临百年未有之大变局,快速迈入智能化的新时代。人工智能技术创新给人类社会带来的巨大变革,为开展智能化时代的社会实验提供了理想的要素和场景。
近年来,清华大学、浙江大学等单位的专家学者,汇集全国计算机科学、社会学、心理学、医学等领域的智力资源,在大量前期工作的基础上,针对人工智能社会影响的问题,率先提出了开展长周期、宽领域、多学科人工智能社会实验的政策建议。科技部组织制定了《国家新一代人工智能创新发展试验区建设工作指引》,将社会实验作为新一代人工智能创新发展试验区建设的重要工作。中央网信办等有关部委也制定行动方案,在全国开展人工智能社会治理实验。
近日,第一届全国人工智能社会实验学术会议在清华大学召开,100余位专家学者交流分享了人工智能社会实验的最新成果,研究讨论了人工智能社会实验的工作方案和行动计划。开展长周期、宽领域、多学科人工智能社会实验,有助于我们从小切入,在不对人类社会造成较大规模影响的情况下,准确识别人工智能对人类社会带来的挑战和冲击,深入理解人工智能的社会影响特征与态势,深刻把握人工智能时代社会演进的规律,从而为建立有人文温度的智能社会提供科学的参考依据。
建立智能社会治理体系,实现对技术和产业的积极回馈
在人类社会面临转型的关键节点和重大关口,在应对人工智能等科技变革带来的全新公共治理挑战的情境下,我们要从人文社会科学的角度出发,以人工智能社会实验为起点,加强人工智能的社会影响机理、规律与趋势的研究与探索,在人工智能的研发阶段以及后续技术全生命周期,加强对科技伦理问题的关注和控制,进一步完善负责任的研发创新价值体系,推动应对技术变革的公共政策创新,建立智能社会治理体系,实现对技术和产业的积极回馈。
当前,世界各国政府都陆续出台了相关政策以推动并规范人工智能的发展。美国颁布了《国家人工智能研究与发展战略规划》和《为人工智能的未来做好准备》两个国家级政策框架,日本出台了《第五期(2016-2020年度)科学技术基本计划》,提出了超智能社会5.0的概念,英国政府发布了《人工智能:未来决策制定的机遇与影响》,法国发布了《人工智能战略》,我国也发布了《新一代人工智能发展规划》等相关政策。不同国家对于人工智能发展的态度不同,但都高度关注人工智能的社会影响与治理问题。
我国是一个拥有近14亿人口的大国,并处在经济社会转型升级的关键时期,具有庞大的人工智能市场需求。我们必须保持以市场为主导的“冒险取向的制度设计”和以人文社会为主导的“安全取向的制度设计”间的平衡,这要求我们不断地根据出现的社会问题对人工智能带来的影响进行评估,在此基础上进一步优化人工智能在数据治理、算法责任、技术路径等方面的科学规范与技术标准,构建兼顾理论与实践的全链条研究路径,以保障相关治理及时跟进,从而为人工智能技术发展打造开放有序的环境,推动建立有人文温度的智能社会治理体系。
尽管世界各国在人工智能治理上目前还处于起步阶段,但在不远的将来,一些重要大国参与的人工智能国际治理机制会很快建构并完善起来,这是全球人工智能规范、有序发展的必由之路。尤其是人工智能与物联网、云计算、大数据、互联网等技术深度融合,人工智能所造成的社会影响将会超越一国的边界而成为全球共同关注的公共问题,因此人工智能客观上需要全球性协调机制、全球性协作平台以及全球性的标准和规则,同样也需要国际范围内人工智能的道德伦理系统和价值理念的碰撞与讨论,这些都是人工智能全球治理的发展趋势。
我国是全世界发展人工智能技术行动最早、动作最快的国家之一,面对全球科技创新的新态势,我们要牢牢抓住人工智能发展的重大历史机遇,紧扣发展、研判大势,主动谋划、抢占先机,引领世界人工智能发展新潮流。我们要加快开展以理论探索为导向,以指导实践为目标的人工智能社会实验,在对人工智能综合影响进行持续观测和数据收集、分析的基础上,探索人工智能全球治理的“中国方案”,促进人工智能技术、产业和治理的良性发展,建设有人文温度的智能社会。(作者:苏竣,系清华大学智库中心主任、清华大学公共管理学院教授;黄萃,系浙江大学公共管理学院教授、信息资源管理系主任)
责任编辑:张薇
人工智能伦理问题的现状分析与对策
中国网/中国发展门户网讯 人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。
当前人工智能伦理问题
伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。
计算机伦理学创始人 Moore将伦理智能体分为4类:伦理影响智能体(对社会和环境产生伦理影响);隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。
当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。例如:人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于 Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。人工智能的滥用可能威胁公民隐私权、个人信息权。深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用 Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……
人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。
关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。
人工智能伦理准则、治理原则及进路
当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。
伦理准则
近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。
近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。
治理原则
美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。
习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。
治理进路
在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。
“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。
“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》11中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。
我国人工智能伦理治理对策
人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。
教育改革
教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。为更好地支撑人工智能发展和治理,应从4个方面进行完善:普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;在科技工作者中加强人工智能伦理教育和职业伦理培训;为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。
伦理规范
我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。当前有5项重点工作可以开展:针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。推动科研机构和企业对人工智能伦理风险的认知和实践。充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。
技术支撑
通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。
此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。
法律规制
法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。
国际合作
当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。
我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。
(作者:张兆翔、谭铁牛,中国科学院自动化研究所;张吉豫中国人民大学法学院;《中国科学院院刊》供稿)
科技创新赋能社会治理智能化
作者:李胜会、李丹华(华南理工大学公共管理学院)
党的十九届六中全会审议通过的《中共中央关于党的百年奋斗重大成就和历史经验的决议》指出,党的十八大以来,我国社会治理社会化、法治化、智能化、专业化水平大幅度提升。社会治理智能化以科学技术为支撑,通过大数据、云计算、人工智能等数字技术,对社会治理数据进行挖掘、收集、整理、转化,凸显了社会治理科学性、预测性、精准性、高效性等特征。科技创新作为新时代社会治理智能化的重要途径,可以打破数据孤岛和时空壁垒,促进物理空间和信息空间深度融合,形成“信息高速公路”,从而激发社会治理的创新创造活力。
社会治理智能化的突出表现
第一,社会治理的科学性。科技创新是实现“智治”最富活力、最富时代气息的重要手段之一。一方面,科技创新能够突破传统治理理念的桎梏,为社会治理体系创新注入更大能量。另一方面,科技创新能够孵化出众多新兴科技,为关联社会治理中的人、事、物、组织信息,建设数据管理平台,打造数据分析网站,预测社会治理风险,推进人机协同共治等提供了科技支撑,降低了传统经验治理的主观性。
第二,社会治理的预测性。科技创新如同我们时代的神经系统,它敏锐地捕捉着社会的微小变化,帮助我们突破时间和空间限制,拓宽认识世界的视野。科技创新嵌入社会治理领域,运用信息化、智能化技术提取社会治理中的数据资源,构建治理数据底板并进行数据标准化处理,依据大数据信息流对社会治理风险进行科学预测,减少了传统末端治理的被动性,为源头治理提供了主动预测功能。
第三,社会治理的精准性。提高社会治理的精准性有助于节约治理成本,提高政府治理效率。一方面,科技创新为社会治理智能化提供了发现“真问题”的科技手段。它借助大数据、云计算、人工智能等现代信息技术,从海量的信息中研判社会治理问题,找出问题根本,突破了过去因问题的偶发性、不规则性和模糊性而导致无法精准发现问题的局限,减少了治理空转现象。另一方面,科技创新为社会治理智能化提供了精准解决问题的科技工具。它运用5G、人工智能、区块链等技术,在数据网络的各个节点实时记录并捕捉有用数据,形成社会精准治理的数据支撑。
第四,社会治理的高效性。依托科技创新提高社会治理效能,是实现社会治理高效性的重要途径。科技创新是社会治理告别传统治理技术、手段、工具的革命性力量。科技创新为社会治理智能化提供了获取和传输海量数据资源的工具,比如我们常用的QQ、微信、微博等便捷通信技术,可以快速传输图片、文字、视频、音频等信息资源并形成数据库,为社会治理智能化提供获取、输送、储存数据信息的渠道。此外,科技创新也为社会治理的各方主体提供了便捷的沟通协调平台。它通过创建QQ群、微信群和使用各类软件,为社会治理主体在治理目标、治理决策、治理方案等方面达成共识提供了便捷平台。
社会治理智能化的提升路径
首先,坚持以人为本。社会治理智能化的根本在于提高社会治理服务水平,推进治理体系和治理能力现代化,实现共建共治共享目标。科技创新赋能社会治理智能化,要坚持以人为本的根本原则。法国当代科学哲学家拉图尔提出的“行动者网络”理论认为,人在利用技术的时候,不再是单纯的人的行为,而是一种人与技术的复合体行为。这就要求我们打破关于技术与社会、人与物分割的观点。科技嵌入社会治理领域,不能一味考虑提高智能化水平,还要根据受众人群的年龄、职业、接受度等实际情况,有类别、有针对性地推进科技创新嵌入社会治理的广度和深度,深入挖掘科技创新为人服务的功能,打造信息驱动、人机协同、数据共享的“智治”体系,推动智慧城市、智慧校园、智慧社区等便民工程建设。
其次,强化科技创新。科技创新是转变治理方式、发挥治理效能、实现社会治理智能化的重要抓手。新时代,5G、大数据、区块链、人工智能等新兴科技改变了社会治理的内涵、范围、理念和方式,为社会治理体系提供了创新思维、科技路径和科技工具等。提高社会治理智能化水平,要高度重视并充分挖掘科技创新的促进作用,通过科技创新提升社会治理服务水平,建设政务服务网络自助办理、民生服务一证通行、管理服务全网协同等便民化、普惠化工程。要加强科技创新与社会治理的有机融合,依托科技创新提高社会治理在风险预警、治理、防范和治理决策、管理、评估等方面的水平。要加大对在社会治理领域中开展科技创新的资金、制度、人员等的支持力度,激发科技创新赋能社会治理智能化的活力,形成全社会共同参与科技创新的良好氛围。
最后,保障数据安全。社会治理智能化水平的提高离不开大数据信息技术的支持。大数据并非自然界的产物,其本质是科技创新的成果,是科技创新嵌入社会治理领域并实现智能化的重要技术。美国社会学者和作家曼纽尔·卡斯特认为,网络社会“流动的权力优先于权力的流动”。大数据时代,数据信息资源在各领域占据着重要地位。因此,提高社会治理智能化水平,不仅要学会运用科技获取和使用海量数据,而且要学会运用科技管理数据,守护数据安全。譬如,通过加大科技创新在数据管理安全方面的技术研发力度、运用科技手段制定数据统一统计口径、设置数据传输特定通道、构建数据安全共享平台等途径,筑牢数据安全防护墙,为提高社会治理智能化水平提供安全的数据支持。
[责编:郑芳芳]