博舍

中国关于加强人工智能伦理治理的立场文件 关于人工智能监管问题

中国关于加强人工智能伦理治理的立场文件

一、人工智能作为最具代表性的颠覆性技术,在给人类社会带来潜在巨大发展红利的同时,其不确定性可能带来许多全球性挑战,甚至引发根本性的伦理关切。在伦理层面,国际社会普遍担心如不加以规范,人工智能技术的误用滥用恐将损害人的尊严和平等、侵犯人权和基本自由、加剧歧视和偏见、冲击现有法律体系等,并对各国政府管理、国防建设、社会稳定其至全球治理产生深远影响。

中国始终致力于在人工智能领域构建人类命运共同体,积极倡导“以人为本”和“智能向善”理念,主张增进各国对人工智能伦理问题的理解,确保人工智能安全、可靠、可控,更好赋能全球可持续发展,增进全人类共同福祉。为实现这一目标,中国呼吁各方秉持共商共建共享理念,推动国际人工智能伦理治理。

二、2021年12月,中国发布《关于规范人工智能军事应用的立场文件》,呼吁各方遵守国家或地区人工智能伦理道德准则。中国现结合自身在科技伦理领域的政策实践,参考国际社会相关有益成果,从人工智能技术监管、研发、使用及国际合作等方面提出以下主张:

(一)监管

各国政府应坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。

各国政府应重视人工智能伦理与法律的基础理论问题研究,逐步建立并完善人工智能伦理规范、法律法规和政策体系,形成人工智能伦理指南,建立科技伦理审查和监管制度,加强人工智能安全评估和管控能力。

各国政府应增强底线思维和风险意识,加强研判人工智能技术的潜在伦理风险,逐步建立有效的风险预警机制,采取敏捷治理,分类分级管理,不断提升风险管控和处置能力。

各国政府应立足自身人工智能发展阶段及社会文化特点,遵循科技创新规律,逐步建立符合自身国情的人工智能伦理体系,健全多方参与、协同共治的人工智能伦理治理体制机制。

(二)研发

各国政府应要求研发主体加强对人工智能研发活动的自我约束,主动将伦理道德融入人工智能研发过程各环节,避免使用可能产生严重消极后果的不成熟技术,确保人工智能始终处于人类控制之下。

各国政府应要求研发主体努力确保人工智能研发过程的算法安全可控,在算法设计、实现、应用等环节,不断提升透明性、可解释性、可靠性,逐步实现可审核、可监督、可追溯、可预测、可信赖。

各国政府应要求研发主体努力提升人工智能研发过程的数据质量,在数据收集、存储、使用等环节,严格遵守所在国的数据安全规定、伦理道德及相关法律标准,提升数据的完整性、及时性、一致性、规范性和准确性等。

各国政府应要求研发主体加强对数据采集和算法开发伦理审查,充分考虑差异化诉求,避免可能存在的数据采集与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

(三)使用

各国政府应禁止使用违背法律法规、伦理道德和标准规范的人工智能技术及相关应用,强化对已使用的人工智能产品与服务的质量监测和使用评估,研究制定应急机制和损失补偿措施。

各国政府应加强人工智能产品与服务使用前的论证和评估,推动人工智能伦理培训机制化,相关人员应充分了解人工智能技术的功能、特点、局限、潜在风险及后果,并具备必要的专业素质与技能。

各国政府应保障人工智能产品与服务使用中的个人隐私与数据安全,严格遵循国际或区域性规范处理个人信息,完善个人数据授权撤销机制,反对非法收集利用个人信息。

各国政府应重视公众人工智能伦理教育,保障公众知情权与有效参与,发挥科技相关社会团体作用,引导社会各界自觉遵守人工智能伦理准则与规范,提高人工智能伦理意识。

(四)国际合作

各国政府应鼓励在人工智能领域开展跨国家、跨领域、跨文化交流与协作,确保各国共享人工智能技术惠益,推动各国共同参与国际人工智能伦理重大议题探讨和规则制定,反对构建排他性集团、恶意阻挠他国技术发展的行为。

各国政府应加强对人工智能领域国际合作研究活动的伦理监管,相关科技活动应符合各方所在国家的人工智能伦理管理要求,并通过相应的人工智能伦理审查。

中国呼吁国际社会在普遍参与的基础上就人工智能伦理问题达成国际协议,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。

大开“智”界:人工智能监管日趋严格

2022年人工智能的性能较五年前将大大增强,而部分监管机构担心人工智能会产生公平、偏见、歧视、多元化和隐私方面的影响。欧盟、中国、美国等正制定系统化监管提案,尽管这些提案很可能将在2023年或之后才会实施生效。部分法规可能试图完全禁止人工智能的整个分支领域。欧盟提议,违反人工智能规则的企业将最高罚款至营业额的6%。人工智能影响决策制定,因此监管势在必行,但人们常常不知从何着手。人工智能监管也绝非易事,不仅方式多种多样,而且可能彼此冲突。

美国对人工智能的监管:进展、争论与展望

原创高隆绪 

Via:iStock

自ChatGPT问世以来,人工智能所展现出的强大性能得到了世界的瞩目,但与此同时,其暴露的诸多风险也向世界敲响了监管的警钟。2023年3月,意大利政府就以ChatGPT没有就收集处理用户信息进行告知、缺乏大量收集和存储个人信息的法律依据为由,宣布禁止在意大利使用ChatGPT。2023年6月,欧洲议会正式批准了旨在对人工智能进行全面监管的《人工智能法案》,人工智能在生物识别领域的潜在危险应用以及大模型训练过程的不透明则成为了欧盟议员的主要关切点。

在欧洲的人工智能监管如火如荼之时,大洋彼岸美国的人工智能监管则仍处于起步阶段。从行政角度看,虽然拜登多次与人工智能方面的企业家、学者进行会面以表达重视,但美国仍未确定人工智能监管的主管机构;从立法角度看,美国国会则尚未就人工智能监管的联邦立法达成广泛共识,在具体的监管框架、委员会设置等方面也尚未统一意见;从社会舆论看,持不同观点的美国科技与政策界在人工智能监管议题上仍在进行激烈辩论。上述情况都意味着美国详尽的人工智能监管政策或立法的出台仍需时日。

一、当前美国人工智能监管的政策进程

美国当前的人工智能监管政策总体呈现出“总统定基调,各部抓分管”的态势,即由总统出台宏观政策与蓝图,各部门分别审查人工智能技术在自己负责的领域内所存在的风险,并出台相应的措施和政策法规。

当前拜登最新、最详细的人工智能监管政策框架为其在2022年10月4日提出的《人工智能权利法案蓝图》。该蓝图为人工智能系统设立了五项基本原则,分别为安全有效的系统、算法歧视保护、数据隐私、通知和解释、人工替代方案与后备。除《蓝图》外,近期白宫还颁布了一些较为零散的政策来发展和落实《蓝图》的监管要求,比如白宫5月4日发布消息称要求OpenAI、微软等厂商的大模型需在2023年8月的DEFCON31黑客大会上接受互联网专家的公开评估,以确定其大模型是否符合《蓝图》的要求。

在白宫宏观《蓝图》的指导下,美国联邦各部门开始在其负责范围内着手进行有关人工智能监管具体政策的制定。如劳工部制定了《公正的人工智能行动手册》,旨在避免人工智能对求职者与员工产生基于种族、年龄、性别等特征的偏见。消费者金融保护局则针对大模型的“黑箱状态”发布文件,认为由“黑箱状态”的人工智能大模型计算出的结论不得作为金融机构拒绝向申请人放贷的合理理由。

而在各联邦部门中,有两个部门对人工智能监管显得格外“热情”,展现出了主导美国人工智能监管政策的势头。首先是美国商务部,其下属机构美国国家标准与技术研究院(NIST)于2021年就开始针对人工智能监管进行意见收集,并在2023年1月就推出了《人工智能风险管理框架》。虽然该框架并不具备强制性,仅旨在帮助人工智能企业和专家更好地对人工智能进行风险评估,但其对人工智能存在的风险进行了详尽的分级与分类,成为了具体监管政策出台的重要基石。除推出《框架》外,商务部还于2023年4月就人工智能问责措施公开征求意见,包括人工智能模型在发布前是否应经过认证程序这一关键监管步骤。另一个在人工智能监管方面处于重要位置的部门是联邦贸易委员会(FTC),在拜登的《蓝图》出台之前,该委员会就在2022年4月发布了《联邦贸易委员会消费者保护指南》,并对人工智能做出了“透明、可解释、公平且符合经验,促进问责制”的要求。联邦贸易委员会也还有可能成为未来专门对人工智能进行审查的部门,其在2023年3月收到了来自人工智能和数字政策中心(CAIDP)的一份新的举报,要求对OpenAI及其产品GPT-4进行调查。

Via:APPhoto

二、当前美国人工智能监管的立法进程

当前美国有关人工智能的监管主要分为各州与联邦两个层面。在州层面,2022年共有17个州引入了有关人工智能的法案,科罗拉多州、伊利诺伊州和佛蒙特州等还专门在立法机构成立了工作组或委员会,来对人工智能进行研究并负责提供报告与建议。各州的相关立法主要涉及人工智能大模型中的歧视与偏见、大模型的透明度、人工智能于生物识别领域的应用等。

而在联邦层面,诸多议员已经在有关人工智能监管的各个方面展开了行动,但立法进程仍处于早期阶段。民主党众议员刘云平(TedLieu)等人提交了“国家人工智能委员会法案”,该法案拟建立包括20人的“国家人工智能委员会”,两党各提名十人参加,主要负责对人工智能监管立法的迫切度进行分级,并引导相关立法。参议院多数党领袖查克·舒默(ChuckSchumer)也一直强烈支持在人工智能领域进行全面立法,他在2023年6月推出了“人工智能安全创新”框架,包括五个核心支柱:安全、问责制、(以民主价值观为)基础、(清晰地向用户)解释、创新,舒默还就人工智能在国会组织了数次简报会,期望能在该框架的指导下加快国会在人工智能方面立法的进展。同时,美国国会在传唤OpenAI的CEO山姆·奥尔特曼(SamAltman)、人工智能初创公司HuggingFace的CEO克莱门特·德兰格(ClementDelangue)等人进行了数次有关人工智能的听证会后,还计划举行更多与人工智能有关的听证会。如众议院金融服务委员会成员、民主党议员玛克辛·沃特斯(MaxineWaters)就称人工智能对美国的金融安全造成了重大威胁,要求立刻召开听证会,讨论人工智能对金融相关行业的影响。民主党参议员加里·彼得斯(GaryPeters)和艾德·马基(EdMarkey)则致函政府问责办公室(GAO),要求后者审查生成式AI的潜在危害,以及如何减轻风险进行“详细的技术评估”。

舒默6月21日在CSIS公布其“人工智能安全创新”框架/CSIS

三、当前美国有关人工智能监管的争论

争论主要围绕以下问题展开。首先,美国是否需要一个全新的联邦机构来专门负责人工智能监管。OpenAI与微软在这一问题上的回答为“是”。OpenAI的CEO奥尔特曼在国会出席听证会时就提议组建一个全新的联邦机构,专门负责对人工智能大模型发放许可证,进而从源头避免有风险的人工智能工具面世。这一想法也得到了微软总裁布拉德·史密斯(BradSmith)的支持,其在微软发布的报告《治理人工智能:未来的蓝图》中认为“高性能人工智能基础模型的新规则最好由新的政府机构实施”。而谷歌对这个问题的回答则更偏向“否”,其表示虽然“并不反对”设立全新的监管机构,但更倾向于基于现有的机构进行人工智能监管。谷歌认为,应该继续由商务部下属的美国国家标准与技术研究院(NIST)带头向各机构发布有关如何应对人工智能风险的技术指导,并由各部门付诸实施。

其次,美国是否需要进行与欧盟类似的全面人工智能监管立法。尽管参议院多数党领袖舒默“雄心勃勃地”提出了有关人工智能全面监管的框架,并试图通过专题论坛等“新的程序”来加速国会缓慢的立法进程,但美国一直以来强调非监管措施,即更侧重不具有法律强制性的措施,包括细分领域的政策指南或框架、行业内自愿的共识标准等。北达科他州立大学网络安全教育与研究所副所长杰里米·斯特劳布(JeremyStraub)就撰文认为对人工智能进行全面监管是完全错误的。他认为从法律角度看,全面监管本质上是对程序员自由表达权利的限制;从市场角度看提,全面监管提高了新兴企业进入人工智能行业的合规门槛,加剧了行业垄断;从监管效果角度看,全面监管“只监管技术发展,不监管技术应用”的思路将是对人工智能行业创新的扼杀。

5月17日,拜登在白宫东厅发表讲话,宣布指导联邦政府支持的人工智能研究的新举措/APPhoto

四、美国人工智能监管前景展望

首先,两党紧张的政治关系将对人工智能监管法案的出台产生不利影响。无论是刘云平提交的“国家人工智能委员会法案”,还是舒默尚在孕育中的人工智能全面监管提案,都必须在国会中经过长期的辩论、听证、讨价还价才能有望最终通过,而美国日益严重的政治极化正在使得这一进程愈发困难,2024美国大选的不断临近则使得两党之间进行妥协的窗口越来越小。即使全面监管的思路与民主党人提出的具体监督法案能够得到认可,共和党人也可能拒绝投票通过,而是将该法案作为“俘虏”以换取民主党人对共和党在另外事项上的支持。如共和党人就曾经通过阻挠《芯片法案》的通过来换取民主党人在《通胀削减法案》具体条款上的让步。

其次,不同机构监管框架的重叠和不一致将降低美国人工智能监管的清晰度。在国家层面,白宫《蓝图》中的原则与舒默全面监管立法框架中的原则出现了相当程度的重叠。而由于美国政府至今并未指定一个现有联邦部门作为人工智能监管的主管部门,也没有决定设立新的联邦部门,故各部门各司其职的“碎片化”模式不仅降低了相关政策的协调度,还有可能导致内部的摩擦与权力竞争。美国各州在具体的人工智能立法内容上更是有着巨大差异,如加利福尼亚州的法案包含了对自动化系统的非政府用途的监管;康涅狄格州和佛蒙特州的法案则专门监督政府对这些系统的使用。上述情况都可能在未来使美国的人工智能监管复杂化,提高企业的合规成本。

最后,美国监管进程的缓慢推进或难以适应人工智能的飞速发展。虽然近期美国有关人工智能监管的政策与学术讨论不断升温,大量听证会与研讨会接连召开,各种监管的蓝图与框架不断提出,但事实上,美国当前几乎所有与人工智能监管相关的官方文件都停留在了宏观层面或起步阶段,均未能详尽、充分地对人工智能监管进行全面论述与阐释,也难以为企业进行继续人工智能创新提供有效的合规指导。但另一方面,人工智能与相关产业正在以远超监管框架建立的速度高速发展。根据福布斯的预测,预计到2027年,与人工智能相关的市场规模将从2022年的860亿美元达到4070亿美元,其中必定伴随着大量新兴人工智能相关企业的成立、全新的技术突破以及投资的注入。届时,监管政策与法规的“慢半拍”将在很大程度上对人工智能的发展产生负面影响。

本文作者:高隆绪,上海市美国问题研究所研究助理

文中图片来源于网络

文章仅代表作者个人观点,不代表本号立场

原标题:《美国对人工智能的监管:进展、争论与展望》

阅读原文

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇