博舍

我国人工智能治理面临的机遇和挑战:基于科技公共治理视角 人工智能社会治理实验总结

我国人工智能治理面临的机遇和挑战:基于科技公共治理视角

卢阳旭     何光喜

[摘 要]建立健全人工智能治理体系,是保障人工智能健康发展的必然要求。人工智能治理的核心议题是风险和收益的平衡,以及相关公共决策的知识合法性和参与合法性的协调。本文基于科技公共治理视角,分析了人工智能治理的两个面相,介绍了各国在人工智能治理方面的探索及面临的挑战。在梳理我国人工智能治理实践的基础上,从原则、制度建设和工具开发三个层面提出了改进我国人工智能治理体系建设的建议。

[关键词]人工智能;科技公共治理;风险;挑战

[中图分类号]D63                                       [文献标识码]A

一、人工智能治理问题的提出

人工智能是引领新一轮科技革命和产业变革的战略性技术,正在对全球经济社会发展产生重大而深远的影响,[1]是当前全球科技治理的焦点议题。形成一套能有效识别、促成社会意愿“最大公约数”的人工智能治理体系,有效支撑相关公共决策的制定和执行,是促进人工智能健康发展的重要保障。

(一)科技公共治理及其核心议题

作为一种特殊类型的公共治理,科技公共治理具备公共治理的一般特征:治理主体多元化、治理机制多样化。[2]同时,科技创新活动及其影响的不确定性高、知识门槛高,又使得科技公共治理有以下两个方面的核心议题。

1.科技收益与科技风险的权衡问题

科学技术的“双刃剑”效应使得人们对于科技发展一直有一种矛盾的态度,一方面担心发展太慢,让经济社会发展失速;另一方面又担心发展太快、失去控制,伤及人类。这一矛盾态度使得人们在对待科技发展特别是新兴技术的应用上,出现了“预防原则”(precautionaryprinciple)和“先占原则”(proactionaryprinciple)的持续争论。[3]“预防原则”主张,人们要更谨慎地对待科技发展蕴含的不确定性,以防其带来不可预料的危害。“先占原则”则认为科技创新自由至关重要,不应过分强调与科技发展相关的不确定性的负面影响,反倒是要在规制科技创新方面更加谨慎,以免失去科技发展带来的机会。简单说,前者更强调“安全的科学”,后者则更加强调“科学的安全”。[4]

2.“知识合法性”和“参与合法性”的张力问题

科技活动有很强的专业性,较之一般公众,科学家具有很强的知识优势,更有可能作出“知识上”的正确决策,科技相关决策应该主要听科学家的——这是很长时间以来,科学与政治、科学家与公众之间的默契。但是,随着科学的体制化和职业化,知识权力与各种经济和社会利益的深度纠缠,科学家的独立性和客观性不再毋庸置疑。同时,科技对社会的深度纠缠使得科技决策所需的科学知识之外的“社会知识”越来越多,而公民权利意识的增强则意味着公众会越来越不愿意只是被动地接受科学家们的决定。[5][6]换句话说,没有多主体参与的科技公共决策可能在知识上是不完备的,在程序上是“不合法的”。[7]

(二)人工智能治理的两个面相:“影响的治理”与“技术的治理”

1.影响的治理:人工智能的伦理、法律和社会影响

影响的治理是人工智能治理的核心面相,基本原则是以人为本,基本问题是风险和收益的权衡。20世纪90年代人类基因组计划设立专门的研究项目,关注与基因技术相关的伦理、法律和社会议题(Ethical,Legal,andSocialIssuesELSI)。这个框架同样适合于对人工智能影响的分析,目前人们对于人工智能影响的讨论基本上也是从这三个相互联系的层面来展开的。

人工智能伦理议题的核心,是人与人工智能系统的关系,表现在两个层面:一是人工智能持续发展给人类地位带来挑战,虽然目前人工智能还处于狭义人工智能阶段,但人们对通用人工智能和超级人工智能的预期加重了这方面的担忧。二是人工智能的误用和滥用给人与人、人与自然之间伦理关系带来挑战,比如隐私、歧视、尊严、安全、公平正义等。人工智能法律议题的核心,是何种法律规制能够帮助人类在人工智能发展过程中实现“趋利避害”。人工智能社会议题的内容相对宽泛,而且随着人工智能对工作和生活渗透广度和深度的增加,还会有各种新的议题出现。当前,人们关注的主要议题,包括就业、收入分配、深度造假、政治选举等等。[8][9]

需要指出的是,虽然人们对人工智能的潜在风险有很多担心,但总体判断还是好处要大于风险,而且人类社会有机会、有办法去争取实现收益最大化、风险最小化。比如,2018年12月欧盟委员会高级专家组发布的《可信赖的人工智能伦理准则(草案)》(DraftEthicsGuidelinesForTrustworthyAI)指出,总体而言人工智能所带来的收益要大于风险。同月,日本内阁府发布的《以人类为中心的人工智能社会原则(草案)》(SocialPrinciplesofHuman-centricAI(Draft))也认为人工智能技术是其推进“社会5.0(society5.0)”建设的关键,要尽可能有效、安全地利用它并避免其带来的负面影响。

2.技术的治理:人工智能系统的治理

技术的治理是人工治理的从属面相,基本目标是保障技术系统安全、可控。具体要求主要包括:一是强调人工智能系统要可解释、透明、长期安全并符合社会价值观,要提高算法的透明性、完善数据共享标准和规范。二是要在人工智能系统的可靠性检验和安全性确认等方面寻找新的方法,以保证人工智能系统处于不间断的人类监管之中。比如,2016年美国政府发布的《国家人工智能研发战略规划》提出,在初始设计阶段就要从技术、标准、审查层面保证人工智能系统可控、安全、符合社会伦理。

但人工智能技术治理面临两个方面的挑战:一是人工智能内生偏差和不可理解问题。人工智能算法高度依赖于大数据,而在很多场景下,数据质量(比如样本的代表性)是很成问题的;不可理解性既包括开发者无法确切理解人工智能系统自我学习过程和决策结果,也包括算法对于使用者和监管者而言的不可理解性。[10]二是算法透明化的安全顾虑和法律争议。国家和公司层面的激烈竞争,以及算法、数据及其分析方法通常掌握在少数国家、少数公司手中这一客观事实,使得它们很容易从现行法律框架中搬出私人财产、商业机密、国家安全等作为拒绝公开的理由。

二、各国人工智能治理的探索和挑战

(一)各国人工智能治理的探索

1.影响的识别:共识和差异

近年来,随着研究的深入和实践的增多,全球人工智能治理的一般性议题越来越集中,主要包括人类的尊严和自主性、隐私和数据安全、就业和社会不平等、人工智能系统的可信赖性及恶意使用等。与此同时,人工智能向各领域的快速渗透也让人工智能治理的具体性议题持续增多。据不完全统计,仅在各项能从公开渠道获得的人工智能提案中,涉及的议题就已超过50个。[11]随着人工智能对各领域渗透程度的进一步加深,未来还会有更多利益点和风险点被触及和识别。

需要指出的是,各国在议题上的共识并不代表在认知、态度和政策举措方面取得共识。以隐私保护为例,虽然各国都认同应该保护隐私,但在不同的制度和文化背景中,人们对于隐私的理解,以及隐私的重要性排序存在明显差异。比如,有研究者将不同社会和群体对待隐私保护的态度划分为三种类型:“隐私优先”(High-Privacyposition)、“隐私平衡”(Balance-Privacyposition)和“隐私限制”(Limited-Privacyposition)。[12]“隐私优先”论赋予隐私更高的价值排序,认为应该赋予个人更大的“数据控制权”,同时它对于隐私的界定也相对比较宽泛。与之相反,“隐私限制”论则认为,虽然应该保护隐私,但当它与其他社会价值(比如公共安全、言论自由等)不一致的时候,应该让位于后者。“隐私平衡”论介于二者之间,在强调隐私保护的同时,也认为不应该对隐私有过于宽泛的定义和过强的保护,在隐私保护方面则强调发挥个人自主、机构和行业自律的作用。事实上,上述分歧明显地体现在美国和欧盟个人数据和隐私保护的立法和监管思路上。相对来说,欧盟在个人数据和隐私保护上更接近于“隐私优先论”,2018年5月正式生效的《一般数据保护条例》(GeneralDataProtectionRegulation,GDPR)确立了“数据可携带权”“被遗忘权”等个人数据控制权,并要建立统一的执法机构。与之相反,美国在强调个人数据和隐私保护的同时,在个人数据控制权立法保护方面要更加谨慎,更接近于“隐私平衡论”甚至“隐私限制论”。对美国、英国和德国等国企业的实证研究也发现了各国对于隐私的认知差异:美国与英国企业的隐私官员一般从避免损害消费者预期的风险管理角度看待隐私保护,而德国、法国和西班牙三国企业主要从人权角度看待隐私。[13]

2.机制的探索:参与和协同

人工智能发展迅速、渗透性强、议题多样复杂。政府、科研机构、大学、企业和社会组织等都有各自的利益诉求和信息优势,多元参与、充分沟通有利于提高人们对人工智能收益和风险的共同认知,并承担共同责任。虽然人工智能治理是个新议题,但从欧美各国的实践来看,它们基本延续了在转基因、纳米、合成生物学、信息技术等新技术治理方面的理念和架构。以一系列法律为核心的正式制度为人工智能治理提供了基本的制度框架和互动规则,例如欧美国家广泛存在的对重大科技公共议题的议会听证制度。对话会、民意调查以及政策制定者和专家之间的社会网络等非正式治理活动也有利于信息的及时传递和各方利益的表达。比如,在奥巴马政府时期,白宫科技政策办公室就人工智能主题举办了一系列旨在广泛征求社会各界意见的研讨会,在此基础上相继发布了《为人工智能的未来作准备》(PreparingForTheFutureOfArtificialIntelligence)《美国国家人工智能研究和发展战略计划》(TheNationalArtificialIntelligenceResearchandDevelopmentStrategicPlan)和《人工智能,自动化与经济》(ArtificialIntelligence,Automation,andtheEconomy)三份报告,较为系统地阐述美国人工智能发展战略、伦理规范和治理机制。2018年以来,美国国会就个人数据和隐私保护相关议题连续举行了多场听证会,Facebook、谷歌、亚马逊等企业巨头均被邀出席。2018年5月,美国政府又在白宫举办人工智能峰会,邀请谷歌、亚马逊、英特尔等企业巨头,以及顶级学术机构的专家等上百位代表参加,重点讨论AI研发、人才培养、制约AI创新发展的体制和特定部门的AI应用等4个议题。2017年6月,英国上议院成立了人工智能专门委员会,负责研究人工智能发展所带来的经济、伦理和社会问题。2018年4月,该委员会发布了《英国人工智能:准备、意愿与能力》(AIintheUK:ready,willingandable)的报告。

当然,人工智能治理过程中多方参与和协同的方式、效果受到特定国家利益集团的结构和制度环境的深刻影响。人工智能的快速发展必然会冲击现有的利益格局,不同利益集团之间的博弈直接决定了各方在相关决策中的话语权和影响力。以隐私保护为例,数据收集者、数据聚合者(主要指各类数据交易平台)、数据使用者和数据监管者这四类利益主体之间的博弈过程会深刻影响一个地区、国家甚至全球的隐私保护政策。[14]同时,人工智能治理过程中利益博弈、政策制定和执行活动都嵌入特定的政策网络当中,会受到其他领域法律法规和政策执行体制的推动和掣肘。总之,欧美国家在推动人工智能公共治理方面的基本经验,不是简单地让知识合法性或参与合法性占据绝对的优势地位,而是把二者间的张力纳入特定的制度框架内,并通过各种具体的活动程序和技术小心翼翼地保持它们之间的微妙平衡。

3.工具的建立:规范和倡导

工具的多元化和适应性是实现有效治理的重要条件。近年来,国际组织、各国政府和立法机构、研究机构等各类主体积极探索建立多样化的人工智能治理工具。法律的约束力强,是人工智能治理可依赖的重要工具,但由于其刚性强,各国在以法律来规制人工智能方面还是相对比较谨慎,尽量平衡风险规制和促进人工智能创新发展的双重需要。总体而言,以美国和欧盟为代表的一些国家和地区在人工智能相关立法方面采取的基本策略,是差别化和场景化——对人工智能不同应用领域进行专门立法。目前,美国和欧洲等国家和地区在自动驾驶方面已有比较成熟的立法,很多国家(地区)也试图加强对深度造假、智能投顾和智能医疗等人工智能应用重点领域的立法规制。[15]

行业技术标准、从业人员行为规范等也是人工智能治理的重要工具。2017年,电气电子工程师协会(IEEE)发布《人工智能设计的伦理准则(第2版)》,对人工智能伦理事项进行了扩充,而且目前还在持续更新和迭代。国际电信联盟(ITU)、国际标准化组织和国际电工委员会第一联合技术委员会(ISO/IECJTC1)等机构也在紧锣密鼓地进行相关标准的研究和制定工作。同时,一些知名科学家、企业家发起国际性的治理倡议,试图在观念和规范层面凝聚全球共识。比如,2017年1月,由未来生命研究所(FutureLifeInstitute)发起,霍金、马斯克领衔推动全球联署的“阿西洛马人工智能23条原则”(AsilomarA.I.Principles)已有超过1000名人工智能/机器人研究人员以及超过2000名其他领域专家签署。该原则从科研目标、科研经费和文化、科学和政策的互动、系统安全可控和透明性,到负责任、隐私、自主性、利益共享、符合人类价值观和不颠覆人类社会秩序等方面提出了23条人工智能研发和应用原则,呼吁全世界严格遵守,共同保障人类未来的利益和安全,在业界引起了很大反响。2018年12月,一项旨在推动人工智能治理全球合作,促进人工智能可持续发展的《负责任地发展人工智能蒙特利尔宣言》(MontrealDeclarationforaResponsibleDevelopmentofArtificialIntelligence)也开始了全球签署。这些国际性的、跨领域的努力为全球人工智能治理合作提供了重要帮助。

(二)全球人工智能治理面临的主要挑战

1.收益和风险的有效识别与公正分配

人工智能是一项正在快速发展且具有重大深远影响的新技术,对它的治理面临着巨大的技术和经济社会影响的“双重不确定性”。如何确保收益和风险的平衡,实现收益的公正分配、风险的合理分担是全球人工智能治理面临的巨大挑战。以就业为例,虽然人们知道人工智能将推动更大范围、更具“劳动替代性”的自动化进程,并重塑全球产业链和就业结构,但替代的规模和方式,影响的大小和结构却众说纷纭、难有定论。再有,人工智能如何加速推动资本替代劳动,是否会加剧“资本回报率高于经济增长率”的趋势,[16]造成劳动参与率和劳动收入占国民收入的比例进一步下降,高端就业岗位和普通就业岗位间的收入差距进一步扩大,让人工智能带来的生产效率提高、社会财富增长等好处主要由少数大企业、大资本和高端技术人员和管理者获得?2018年2月,剑桥大学生存风险研究中心(CentrefortheStudyofExistentialRisk,CSER)等机构联合发布《人工智能的恶意使用:预测、预防和缓解》(TheMaliciousUseofArtificialIntelligence:Forecasting,Prevention,andMitigation),认为滥用人工智能不仅会放大旧风险,还会产生新风险,让数字空间、物理空间和政治领域的风险类型更加复杂。总之,不同国家、群体和个人在人工智能相关风险面前的脆弱性是存在结构性差异的,如何降低风险并更合理分配风险是全球人工治理面临的关键挑战。

2.知识合法性与参与合法性的动态平衡

人工智能具有很高的技术门槛,相比于用户、监管者等主体,技术专家拥有很强的知识优势。但人工智能技术具有极强的渗透能力,将来会出现在工作和生活的各种场景当中,与每个人的利益密切相关。在这种情况下,与人工智能相关的公共决策所需的不仅仅是客观的技术知识,公众的利益诉求和价值判断同样非常重要。探索各种能够促进政府、企业、科学共同体和公众四类主体共同参与、协商共治的方式,不仅能够增加复杂决策所需的技术知识和社会知识,更能增加人工智能治理的参与合法性。但必须指出的是,在现实的人工智能治理活动中,四类主体内部并非“铁板一块”,而是普遍存在着各种观念和利益的分化与差异:政府内部存在不同级别和不同部门间的观点或利益差异;科学界内部存在不同学科间、不同技术路线的差异,而且很多所谓的“科学之争”还混杂着复杂的利益纠葛;产业界内部存在不同产业、不同厂商间的利益差异;公众内部的观念、利益分化则更加普遍。总之,纵横交错的利益关系、知识和政治的深度交织都增加了人工智能治理知识合法性和参与合法性之间的张力和平衡难度。

3.全球人工智能产业竞争和治理合作的良性互动

加强人工智能治理的全球合作是国际社会的共识,但各国、各大企业积极争取掌握更大话语权也是全球人工智能治理的客观事实。2019年2月,美国总统特朗普签署《美国人工智能倡议》,提出要应对来自战略竞争者和外国对手的挑战,并确保美国在人工智能领域的领先地位。2018年3月,欧洲科学与新技术伦理组织(EuropeanGrouponEthicsinScienceandNewTechnologies,EGE)发布的《关于人工智能、机器人与“自主”系统的声明》(StatementonArtificialIntelligence,Roboticsand‘Autonomous’Systems)提出,欧盟要启动相关流程,为机器人技术和自主系统的设计、生产、使用和治理制定一个共同的、国际公认的伦理和法律框架。2018年4月,英国议会发布的《英国人工智能:准备、意愿与能力》(AIintheUK:ready,willingandable)更是提出,英国要利用法律、研究、金融服务和民间机构方面的优势,通过在人工智能伦理与准则制定方面的领先来引领人工智能的发展。

三、我国人工智能治理的探索和挑战

(一)我国加强人工智能治理的主要探索

1.高度重视人工智能发展风险研判和防范

2017年7月,国务院发布《新一代人工智能发展规划》,要求必须高度重视人工智能可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险。2018年10月,习近平总书记指出,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控;要加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。

2.积极推进法律法规和政策体系建设

近年来,我国通过分散式立法的方式,修订和出台相关法律法规,重点加强了对个人数据、电子商务、智能金融、自动驾驶等与人工智能发展紧密相关领域的修法和立法工作,努力完善促进人工智能健康发展所需的法律框架。比如,2018年8月十三届全国人大常委会审议通过《中华人民共和国电子商务法》,努力在允许算法推荐和大数据画像等新技术发展和消费者合法权益保护之间寻求平衡。中国人大网公布的《十三届全国人大常委会立法规划》显示,个人信息保护法、数据安全法均被列为第一类项目,即条件比较成熟、任期内拟提请审议。一些政府行业监管部门也陆续出台了一系列部门规章,积极适应本领域人工智能应用的监管需要。比如,中国人民银行等部门联合出台的《关于规范金融机构资产管理业务的指导意见》规定,金融机构应当向金融监督管理部门报备人工智能模型的主要参数以及资产配置的主要逻辑,在促进算法透明和人工智能监管框架等方面做出重要尝试。

3.搭建人工智能治理多方参与平台

2017年11月,由科技部、发改委等15个部门共同构成的“新一代人工智能发展规划推进办公室”宣布成立,负责推进新一代人工智能发展规划和重大科技项目的组织实施。来自高校、科研院所和企业的27名专家组成的“新一代人工智能战略咨询委员会”也同期成立,负责为新一代人工智能发展规划和重大科技项目实施,以及国家人工智能发展的相关重大部署提供咨询。为进一步加强人工智能领域相关伦理、法律和社会问题研究和人工智能治理国际交流合作,2019年2月,新一代人工智能发展规划推进办公室决定成立“新一代人工智能治理专业委员会”。2019年4月,科技部发起“为了AI健康发展:新一代人工智能治理准则建议征集”活动,向政府部门、企业、高校、科研院所和各界人士公开征集建议。在人工智能标准化方面,2018年1月,国家标准化管理委员会宣布成立国家人工智能标准化总体组和专家咨询组,负责全面统筹规划和协调管理中国人工智能标准化工作。

(二)我国人工智能治理面临的主要挑战

1.从跟随者到领跑者的角色转换

长期以来,我国科技发展处于“跟跑”状态,科学研究和产业应用方面会遇到的伦理、法律和社会问题大部分都已由先发国家“蹚过”了,我们可以跟在后面学习借鉴国际经验,不走或少走弯路。当前,新一代人工智能对全世界来说都是一个新事物,在治理方面没有现成的经验。我国人工智能部分领域核心关键技术实现重大突破,市场应用深度和广度迅速增长,与之相关的伦理、法律和社会问题的研究和治理不可能再跟在后面学了——从“跟着学”到“带头做”是一个巨大的角色转变。

2.科技公共治理机制不健全

人工智能治理活动嵌入在特定的科技公共治理制度中,而后者是一个从理念到制度、程序再到具体技术的完整系统。虽然近年来我国在人工智能治理领域已经作出富有成效的探索,但我国科技公共治理体制机制方面的诸多不足还是会给人工智能治理带来诸多挑战,突出表现在以下几个方面:一是产业界、公众参与科技公共决策的依据、程序等仍然缺乏明确、详细的法律规定。二是以知识生产、共识达成和决策扩散等为目标的系列公共治理方法和工具开发不够。三是在开放创新和全球合作共治的大背景下,主动参与国际人工智能治理合作的理念、机制和专业人才准备不足。

四、结论和建议

探索形成一套有效的人工智能治理机制和平台、治理方法和工具,以实现治理结果的趋利避害、治理过程的科学民主,是保障人工智能持续健康发展的内在要求。鉴于全球人工智能治理现状以及我国的具体国情,本文提出以下建议:

一是原则层面,根据收益和风险结构进行分类、分级处理。一方面人工智能在不同领域中的应用所带来的收益和风险存在很大差异;另一方面在人工智能创新和产业化链条的不同阶段和环节,收益和风险的大小和结构也存在很大差异。没有必要,也很难用一个标准来简单地加总利害。从目前国际人工智能治理经验和我国治理实践来看,未来我国人工智能治理遵循的基本原则,是根据风险类型和大小,对不同场景下的人工智能系统开发和应用采用不同的监管模式和治理机制,努力实现创新和安全、知识合法性和参与合法性之间的动态平衡。

二是制度规范层面,人工智能公共治理法治化。首先应当在法律层面规范人工智能治理程序,将相关决策过程纳入法治轨道。其次要在科研经费投入、科研活动监管、公众参与方式和程度等方面,都明确相应的制度安排,在项目形成机制、各类利益相关方代表的产生方式和意见表达程序等内容作出可操作的程序设计。[17]

三是技术层面,开发多样化的人工智能治理技术工具箱。在充分借鉴国际人工智能治理方法和工具的基础上,围绕知识生产、共识形成和行动促进这三个人工智能治理的关键问题,开发适合我国制度环境和社会基础的系列工具。

[ 参 考 文 献 ]

[1]习近平,推动我国新一代人工智能健康发展,2018-10-31.

[2]俞可平.国家治理评估:中国与世界[M].北京:中央编译局出版社,2009:3-8.

[3]翟晓梅,邱仁宗.合成生物学的伦理和管治[N].科学时报,2010-7-19.

[4]卢阳旭,龚旭.科学资助中的控制权分配——以科学基金机构职能变迁为例[J].科学学研究,2019(3).

[5]诺沃特尼,斯科特,吉本斯.反思科学:不确定性时代的知识与公众[M].冷民,等,译.上海:上海交通大学出版社,2011.

[6]马森,魏因加.专业知识的民主化:探寻科学咨询的新模式[M].姜江等译.上海:上海交通大学出版社,2010.

[7]王奋宇,卢阳旭,何光喜.对我国科技公共治理问题的若干思考[J].中国软科学,2015(1).

[8]国家人工智能标准化总体组.人工智能伦理风险分析报告[R].2019.http://www.cesi.ac.cn/201904/5036.html.

[9]贾开,蒋余浩.人工智能治理的三个基本问题:技术逻辑、风险挑战与公共政策选择[J].中国行政管理,2017(10).

[10]汝绪华.算法政治:风险、发生逻辑与治理[J].厦门大学学报(哲学社会科学版),2018(6).

[11]曾毅.构建新一代人工智能准则[N].光明日报,2019-1-24(16).

[12]Margulis,ST.PrivacyAsaSocialIssueAndBehavioralConcept[J].JournalofSocialIssues,2003.59(2):243-261.

[13]Bamberger,KA,Muligan,DK.2015,Privacyontheground:drivingcorporatebehaviorintheunitedstatesandEurope[M],MITPress.

[14]克雷格,卢德洛芙.大数据与隐私:利益博弈者、监管者和利益相关者[M].赵亮、武青译.2016.长春:东北大学出版社.

[15]汪庆华.人工智能的法律规制路径:一个框架性讨论[J].现代法学,2019(2).

[16]皮凯蒂.21世纪资本论[M].巴曙松,等,译.北京:中信出版社,2014.

[17]何哲.人工智能时代的政府适应与转型[J].行政管理改革,2016(8).

  [作者简介]卢阳旭,中国科学技术发展战略研究院副研究员;何光喜,中国科学技术发展战略研究院研究员。

2023年首期全国人工智能社会实验讲习班举行—新闻—科学网

2022年首期全国人工智能社会实验讲习班举行

 

7月26日~30日,2022年首期全国人工智能社会实验讲习班以线上线下相结合的方式成功举办。

该讲习班由清华大学智能社会治理研究院主办,航天科工集团网络信息总体部、之江实验室、清华大学科教政策研究中心协办,并在线下组织设立了北京、杭州、成都、长春、武汉、枣庄、贵阳7个集中教学点。

本次讲习班邀请了30余位专家学者为讲习班授课、主持和点评,11个典型案例的18位代表交流了人工智能社会实验建设情况,77个国家智能社会治理实验基地和16个国家新一代人工智能创新发展试验区的400多位学员,30多位科技创新-2030“人工智能综合影响社会实验研究”项目成员以及20多位受邀嘉宾参加了讲习班。

讲习班现场清华大学供图

讲习班授课共分为十二讲,结合专题研讨形式,与会的政府官员、业界代表、学界专家和青年领袖等围绕人工智能社会实验的各主题积极交流,分享观点。其中,主体课程包括“人工智能社会实验,探索智能社会治理中国道路”“社会实验的理论与方法”“人工智能社会实验技术方案”“人工智能社会实验伦理规范”“人工智能社会实验审查机制建设”“人工智能社会实验实施路径”“数字革命与治理现代化”“智能社会治理标准化”“社会科学研究方法:变量测度与变量关系”“社会科学研究方法:问卷调查与抽样”“智能社会治理实验典型场景建设实践及实验科技支撑平台”与“浙江省数字化改革应用场景启示”等,由清华大学智能社会治理研究院院长苏竣、浙江大学信息资源管理系主任黄萃等国内相关领域引领性专家学者授课。

为了切实提升讲习班教学效果、提高学员对人工智能社会实验的认识和实操能力,本届讲习班安排了多个专题研讨,主要包括“试验区专题研讨”“综合基地专题研讨”“城市、社区基地专题研讨”“教育基地专题研讨”“医疗基地专题研讨”等,同时安排了各分教学点自行组织集中讨论。

7月30日,讲习班举行了结业仪式。全国人工智能社会实验专家组组长、清华大学智能社会治理研究院院长苏竣总结指出,本次讲习班组织模式、学员规模、学习态度以及学习成效都超出了预期,对于我国加快推进人工智能社会实验工作部署、建强国家智能社会治理人才队伍,将起到一定的支撑作用。

据悉,“人工智能社会实验讲习班”是清华大学智能社会治理研究院发起的人才培养项目,汇聚多领域专家学者讲授人工智能社会实验基础理论、研究方法与实操指导,致力于为全国人工智能社会实验和国家智能社会治理工作开展人才培养和智力支持,产生了积极的社会影响。

 版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。

中国、欧盟、美国的人工智能治理实践

随着ChatGPT、GPT-4等应用不断问世,人工智能的“颠覆性”越发突显,如何保证人工智能技术安全、可靠、可控引发广泛讨论。因此,世界各国均已逐步开展人工智能治理实践,探索制定了一系列规范性文件,以规避技术发展带来的风险,确保人工智能始终有益于人类社会。本文通过梳理中、欧、美相关代表性文件,总结目前人工智能全球治理的最新实践做法。

中国:人工智能立法提上日程

在人工智能领域,中国积极倡导“以人为本”和“智能向善”,出台了一系列相关政策文件,规制和引导新一代人工智能技术研发和转化(具体文件名及主要内容如表1所示)。2020年,全国人大常委会立法工作计划首次提及人工智能立法规制,明确要求“重视对人工智能、区块链、基因编辑等新技术新领域相关法律问题的研究。”2023年6月6日,国务院发布了关于国务院2023年度立法工作计划的通知,提出在实施科教兴国战略、推进文化自信自强方面,预备提请全国人大常委会审议人工智能法草案。这意味着,我国国家层面的人工智能立法已被提上日程,且注重促进和规制并行,有序推进。

表1中国人工智能治理的政策文件

回顾这一治理实践历程可以发现,当前我国人工智能治理正走向综合治理、精细治理,探索构建“柔性的伦理”与“硬性的法律”并行的人工智能治理体系。同时,现有的政策文件体现出,我国人工智能治理一贯遵循了安全与发展并行的思路,以安全为底线护航人工智能产业发展。

欧盟:欧洲议会批准全球首部人工智能法案

2021年4月21日,欧盟发布了《人工智能法案》的提案,探索为人工智能治理提供“硬法”支持。该法案基于风险预防理念为人工智能制定了一套规制体系,旨在促进创新,将欧洲打造成可信赖的人工智能全球中心。2022年12月6日,欧盟理事会通过了关于《人工智能法案》的共同立场,旨在确保投放到欧盟市场并在欧盟范围内使用的人工智能系统安全、且尊重现行法律。2023年3月,该法案草案提交欧盟议会一读,4月27日,欧洲议会成员消解了分歧,就《人工智能法案》提案达成临时政治协议,要求部署生成式人工智能的公司披露用于开发其系统的受版权保护的材料。该协议旨在为《人工智能法案》的出台铺平道路。

2023年6月14日,欧盟人工智能治理迎来最新实践进展,欧洲议会投票通过了《人工智能法案》(主要内容可见表2),法案对禁止实时面部识别以及ChatGPT等生成式人工智能工具的透明度等问题做出规定。按照立法程序,法案下一步将正式进入欧盟委员会、议会和成员国三方谈判协商的程序,以确定最终版本的法案。作为世界第一部综合性人工智能治理立法,它将成为全球人工智能法律监管的标准,被各国监管机构广泛参考。

表2欧盟《人工智能法案》主要内容

欧盟始终积极关注人工智能治理实践,其目的不仅是为各成员国提供指导和约束,而且是期望通过率先制定一整套统一的、覆盖全链条和全过程的人工智能安全治理法律法规体系,影响全球的相关法律和标准制定,进而强化欧盟在新一代人工智能技术浪潮中的国际影响力与战略主动权。

美国:国内治理与国际合作并行,争夺人工智能治理主导权

美国政府一贯重视人工智能的应用与监管,并凭借其长期的技术发展基础和政策、规范制定的经验,搭建人工智能监管框架。

美国的人工智能治理实践有两条主要路径:一是采取全政府参与的方式来监管人工智能。虽然尚未在联邦层面形成统一的保护人们免受人工智能及其他自动化系统侵害的专门性法律,但美政府依靠现有国家战略和地方法律法规,充分发挥州和地方的作用,同时采取自愿原则鼓励人工智能企业积极承担社会责任,弥补法律法规的空缺,确保人工智能可解释可信赖。二是设立专门的人工智能政府机构,规范各主体运营。如2022年成立的美国商会人工智能竞争力、包容性和创新委员会(以下简称人工智能委员会),旨在向政策制定者和公众普及人工智能的类型、用途及其可能带来的风险挑战,同时协调各方利益,形成有利于人工智能发展的政策环境。

2022年10月美国白宫发布的《人工智能权利法案蓝图》(以下简称《蓝图》)可以视为其人工智能治理的一个重要阶段性成果,《蓝图》提出了建立安全和有效的系统、避免算法歧视,以公平方式使用和设计系统、保护数据隐私等五项基本原则,且将公平和隐私保护视为法案的核心宗旨,后续拟围绕这两点制定完善细则。2023年3月9日,人工智能委员会发布的《人工智能委员会报告》[2]进一步提出,应当基于效率、中立、比例性、共治性以及灵活性五大原则,构建一个必要的、基于风险的、分布式的、协调的人工智能监管治理框架,以帮助美国抓住人工智能技术广泛应用的窗口期,解决关键风险与威胁,发挥人工智能的巨大潜在利益。

国际合作方面,美国不断加强人工智能治理的国家间合作,并试图重塑美在关键国际组织中的角色地位。2023年6月8日美国总统拜登与英国首相苏纳克在白宫会谈后共同发布了《大西洋宣言:21世纪英美经济伙伴关系框架》及行动计划,宣言明确表示“加强在人工智能等领域的进一步合作,以确保美英在关键和新兴技术方面处于领导地位”。此外,美国支持英国主办第一届人工智能安全全球峰会(GlobalSummitonAISafety),并承诺将高级别出席峰会。同时,据法新社报道,美国计划于今年7月“重返”联合国教科文组织,意图参与国际人工智能规则、规范和标准的制定,进一步塑造美国影响力。

这意味着,美国人工智能治理动态已进入到国内国际并行,强势争夺人工智能领域治理主导权的层面。我国宜密切关注人工智能国际治理动态,继续推进国际合作与全球治理,建立普遍参与的国际机制,确保科技向善。

[1] 《个人信息保护法》第二十四条个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。

[2]U.S.ChamberofCommerceTechnologyEngagementCenter,ArtificialIntelligenceReport(PublishedMar.2023),availableathttps://www.uschamber.com/assets/documents/CTEC_AICommission2023_Report_v5.pdf.

成都入选国家智能社会治理实验基地,新技术应用场景如何改变社区治理

近日,中国网信网发布《关于国家智能社会治理实验基地入选名单的公示》,在全国范围内组织开展国家智能社会治理实验基地建设,成都入选综合基地,此外,锦江区入选养老特色基地,武侯区入选社区治理特色基地。

据悉,到2025年,国家将布局建成若干智能社会治理实验综合基地和一批特色基地,搭建一批智能社会治理典型应用场景,总结形成智能社会治理的经验规律和理论,出台一批智能社会治理的标准、规范和政策措施,完善适应智能社会治理的体制机制,打造一批智能社会治理的示范和样板,助力国家治理体系和治理能力现代化建设。

社会治理背后,新技术功不可没。大到城市“大脑中枢”——成都市网络理政中心,小到社区生活中的衣食住行,新技术正深刻影响、改变着成都社区治理应用场景。

成都提出要打造新经济机会之城,推动新经济企业发展从“供优惠”到“给机会”转变。城市社区庞大的居民(用户)基数,再加上广大居民多元复杂的需求,适合作为成都新经济企业新技术试点落地的最佳空间,为新技术应用场景落地提供了天然试验田。

社区试验田

社区是社会治理的“基石”。传统的社区治理模式,由于以往技术和规划水平不足等因素,存在着住户数据管理难、社区信息化建设不充分、社区商业不够便捷、社区治理不够下沉精细、居民需求响应慢等问题。

早在2013年9月,成都市锦江区水井坊街道启动了全省首个智慧社区试点项目,该社区内建立了联网智能监控系统,构建了信息智慧中心、智慧家庭样板间;2017年,成都市成华区开发文韵昭青坊@智慧体验馆,智汇云驰@街坊家空间,是全市首个“智慧社区馆”;2018年,在老旧社区新鸿社区上线试运营“守望新鸿”社区发展治理信息化平台,为井盖装上“智慧芯片”,为单元楼装上智慧门禁,考虑线路老化易着火而设置了烟雾燃气智能感应等;2019年,成华区青龙街道豫府新街坊上线“青龙街坊·家空间”社区发展治理服务系统微信程序。成都地产企业、科技企业也在探索新技术与楼盘社区的结合。例如,一家本地地产企业从2017年开始布局智慧人居,提出了包含AI通行、AI安防等5大类30多项智能化场景。

当前,成都已将社区发展治理纳入建设践行新发展理念的公园城市示范区重要战略,城市治理的重心和配套资源正在向社区下沉,出台多个政策措施推动社区治理应用场景建设。2020年6月,《天府智慧小区建设导则1.0版》提出建设30个智慧试点小区,计划打造智慧应用场景400余个,形成线下治理和线上治理同步推进的工作格局。2020年10月,成都市人民政府印发《成都市智慧城市建设行动方案(2020-2022)》,将建设全国“数字政府、智慧社会”典范城市,完善智慧社区服务,为居民构建智能化生活服务体系。2020年12月,《成都市社区发展治理促进条例》印发,这是全国首部以社区发展治理为主题的地方性法规。

社区治理在过去长期依赖基层工作人员个人,用脚步走访社区、用笔杆子记录社区,而新技术赋能社区治理有助于丰富社会治理手段。今天,新技术手段可通过可视化、人工智能算法、大数据分析等,更加直观、及时、有效地发现社会治理中的问题及深层原因,协助社区治理部门快速明晰治理目标,将社区治理模式变被动为主动,变后期处置为前期预防。

例如,在公共安全方面,借助大数据技术赋能,对社区流动人口进行动态、有效管理,释放社区民警更多精力,专注于社区违法犯罪行为的预防和处理;

在环境治理方面,对于社区中餐饮门店的油烟污染、噪音扰民、厨余垃圾处理等问题,采用电子眼、物联网等监管手段,可以满足实时、精准监管的需求,为居民创造更舒适的社区生活。

在人防、物防等传统安防基础上,依托人工智能、物联网、大数据等新技术,在小区出入闸口放行、外来人员入侵小区监测、居民紧急求助等多个方面,很多地方基本实现了智慧化的防护与治理模式。

不足之处

整体看来,新技术赋能社区治理应用场景仍存在一些不足。

一是应用场景缺少整体规划,新技术赋能程度较低,普遍是在部分社区进行试点,或处于部分场景建设的阶段。

二是政企间社区数据资源尚未实现互联互通。基层社区直接面对居民,所涉及的治理数据条目繁多、内容也相对精准,是一项及其丰富的数据资源。但由于治理的主体多元,数据的产权、定价还缺少相应规则,使得政府与企业、官方与个人之间的数据融通应用还处于起步阶段。例如社区车位共享的数据融通运用就存在较大短板。

三是新技术应用场景下社区治理人才相对缺乏。新技术赋能下的社区治理应用场景大多采用的多是人工智能、大数据、物联网等新兴技术,而现有社区工作人员的能力水平与新技术应用场景建设的需求还存在一定差距。

四是社会力量协同、居民参与程度较低。在调研的社区中,大多居民对社区治理的内涵停留在由业主委员会履行对物业的监督、建议权等常规事项上。而新技术下的社区治理应用场景,需要由社区居民、企业和社区工作人员等多方主体共同参与建设,如何调动社区各方主体协同建设社区治理场景成为了工作重点和难点。

路径建议

为此,天虎科技建议:

一是建立揭榜挂帅机制,和企业合作探讨新技术解决方案共建场景试点。瞄准社区治理痛点和难点,运用技术思维,和企业合作探索新技术解决方案,通过延展技术用途来适配、带动、开放多个配套场景,以揭榜挂帅形式推出机会清单,吸引有能力的企业主动与治理部门合作解决问题。

在这一过程中,技术演进对治理方案影响很大。例如,成都某地通过购买服务在广场等居民投诉较多点位安装在线噪音监测报警系统,噪音数值大于70dB时,显示屏上会显示“噪音超标、请安静”的红色字样,提示广场舞组织者自觉有效遵守规则,但这类治理更靠群众自觉。天虎科技注意到,广场舞噪音治理在技术上有更新思路,例如上海闵行区安装采用“定向声技术”的新型智慧广场舞系统。站在音箱正前方30度夹角内声音较强,两侧音量则随角度扩大快速递减。系统投用后,噪音扰民投诉大为减少。

二是推动应用场景落地。其中包括:1、建设社区美空间。尤其要重视社区美空间的智慧运营和特色场景串联。2、建设运动社区。搭建多功能多维度的运动社区综合服务平台。例如是否可考虑在社区内开设智能共享健身场所,识别社区居民身份即可免费使用运动设备,自动上传运动数据换取激励积分,积分可在线上商城兑换或购买周边商品,以此起到激励运动、激发消费、建立新型服务的作用。3、实施城市通勤效率提升工程。鼓励社区围绕地铁站、公交终点站等站点,设置无人驾驶接驳车体验线路。

三是推动大数据、区块链技术应用,增强社区治理数据共享与隐私保护。着眼社区治理应用场景中数据互联互通难、数据隐私泄漏等问题,借助区块链技术,可令数据从采集、整理、交易、流通以及计算分析的每一步记录都被留存,使得数据流通获得强信任背书,增强社区治理在数据保护方面的能力,帮助社区合法合规收集居民数据信息。

例如,成都“十四五规划”中提到“时间银行”的概念,即鼓励志愿者为老年人提供养老服务,并按一定的标准记录储存服务时间,当志愿者年老或需要时可提取积累的服务时间,用来兑换自己所需要的服务。这些积分可利用区块链不可篡改、可追溯的特点,实现永久存储、公开透明及不被篡改,提高居民对“时间银行”模式信任度和参与度,助力社区“时间银行”模式的应用落地。

四是建立社区管理人员双重培训制度,提升运维管理能力。应用新技术赋能社区治理场景可以减少社区工作人员的重复劳动、简单劳动,让社区工作人员有更多时间与精力提供更有温度的服务,给居民创造更具幸福感、人性化、有温度的居住生活环境。在推动新技术落地社区的过程中,应建立智慧治理相关的技术普及课程体系,让社区工作人员更好地理解、运用新技术。这类培训折算相应积分用于兑换奖励,增加社区基层工作人员待遇,可能会更有助于激励。

天虎科技

【人工智能实验报告】人工智能实验报告精选八篇

人工智能第二次实验报告

一.实验题目:

遗传算法的设计与实现

二.实验目的:

通过人工智能课程的学习,熟悉遗传算法的简单应用。

三.实验内容

用遗传算法求解f(x)=x2的最大值,x∈

[0,31],x取整数。

可以看出该函数比较简单,只要是为了体现遗传算法的思想,在问题选择上,选了一个比较容易实现的,把主要精力放在遗传算法的实现,以及核心思想体会上。

四.实验过程:

1.实现过程

(1)编码

使用二进制编码,随机产生一个初始种群。L表示编码长度,通常由对问题的求解精度决定,编码长度L越长,可期望的最优解的精度也就越高,过大的L会增大运算量。针对该问题进行了简化,因为题设中x∈[0,31],所以将二进制长度定为5就够用了;

(2)生成初始群体

种群规模表示每一代种群中所含个体数目。随机产生N个初始串结构数据,每个串结构数据成为一个个体,N个个体组成一个初始群体,N表示种群规模的大小。当N取值较小时,可提高遗传算法的运算速度,但却降低种群的多样性,容易引起遗传算法早熟,出现假收敛;而N当取值较大时,又会使得遗传算法效率降低。一般建议的取值范围是20―100。

(3)适应度检测

根据实际标准计算个体的适应度,评判个体的优劣,即该个体所代表的可行解的优劣。本例中适应度即为所求的目标函数;

(4)选择

从当前群体中选择优良(适应度高的)个体,使它们有机会被选中进入下一次迭代过程,舍弃适应度低的个体。本例中采用轮盘赌的选择方法,即个体被选择的几率与其适应度值大小成正比;

(5)交叉

遗传操作,根据设置的交叉概率对交配池中个体进行基因交叉操作,形成新一代的种群,新一代中间个体的信息来自父辈个体,体现了信息交换的原则。交叉概率控制着交叉操作的频率,由于交叉操作是遗传算法中产生新个体的主要方法,所以交叉概率通常应取较大值;但若过大的话,又可能破坏群体的优良模式。一般取0.4到0.99。

…………余下全文

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇