博舍

阅读全文 人工智能管理办法

阅读全文

第一条 为促进生成式人工智能健康发展和规范应用,根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规,制定本办法。      

第二条 研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。      本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。      

第三条 国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。      

第四条 提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:      (一)利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。      (二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。      (三)尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。      (四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。      (五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。      

第五条 利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。      

第六条 利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。      

第七条 提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。      用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:      (一)符合《中华人民共和国网络安全法》等法律法规的要求;      (二)不含有侵犯知识产权的内容;      (三)数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;      (四)能够保证数据的真实性、准确性、客观性、多样性;      (五)国家网信部门关于生成式人工智能服务的其他监管要求。      

第八条 生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。      

第九条 提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。      

第十条 提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。      

第十一条 提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。      

第十二条 提供者不得根据用户的种族、国别、性别等进行带有歧视性的内容生成。      

第十三条 提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。      

第十四条 提供者应当在生命周期内,提供安全、稳健、持续的服务,保障用户正常使用。      

第十五条 对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。      

第十六条 提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。      

第十七条 提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。      

第十八条 提供者应当指导用户科学认识和理性使用生成式人工智能生成的内容,不利用生成内容损害他人形象、名誉以及其他合法权益,不进行商业炒作、不正当营销。      用户发现生成内容不符合本办法要求时,有权向网信部门或者有关主管部门举报。      

第十九条 提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。      

第二十条 提供者违反本办法规定的,由网信部门和有关主管部门按照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规的规定予以处罚。      法律、行政法规没有规定的,由网信部门和有关主管部门依据职责给予警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停或者终止其利用生成式人工智能提供服务,并处一万元以上十万元以下罚款。构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。      

第二十一条 本办法自2023年月日起实施。      

[首页][末页][共1页]

全球数治|欧美人工智能监管政策的新趋势

自拜登总统上台后,美欧在人工智能监管政策方面呈现出趋同和对标的态势,或将对今后全球人工智能治理格局产生较大影响。

以上观点来自美国乔治城大学麦考特公共政策学院学者亚历克斯·恩格勒(AlexEngler)教授的研究发现,具体见于二月初他在美国布鲁金斯学会官网发表的文章《欧盟和美国在人工智能监管方面开始趋于一致》(TheEUandU.S.areStartingtoAlignonAIRegulation)。

通常认为,美国更鼓励人工智能技术创新与发展,强调监管的科学性和灵活性,致力于确保和增强美国在该领域的科技和经济领导地位;欧盟的监管风格则趋向于强硬,既强调发展,又注重规制,期望通过高标准的立法和监管来重塑全球数字发展模式。因此,双方在人工智能领域的治理行动不时会产生分歧与摩擦。从以下几份重要监管政策文件也可以看出,美国和欧盟对人工智能这项第四次工业革命引领性新技术的治理路径和思路存在相当大的差异。

2020年以来,美国联邦政府首份《人工智能应用监管指南》、欧盟《人工智能白皮书》、《欧洲数据战略》等文件陆续出台,标志着欧美人工智能政策的侧重点从伦理规范向监管规制逐步转变,同时也显示全球范围内围绕AI主导权的竞争从争夺科技领先优势开始转向通过立法和监管来谋求科技主导地位。

亚历克斯·恩格勒(AlexEngler)指出,自2017年以来,至少已有60个国家制定和实施了某种形式的人工智能治理政策,全球治理格局随之变得复杂。随着人工智能在互联网设备和服务中的部署越来越普遍,加强人工智能治理国际合作的需求也日益紧迫。国家间若能形成更加一致和协同的人工智能治理方法,将有助于加强共同监督,支持全球人工智能供应链顺利平稳运行,并促进科学研究与数据共享。在此背景下,拜登政府对人工智能的治理开始采取较以往更为积极的态度,与欧盟相关政策表现出一定程度的对标,具体体现在重要国际合作中的政策融入、国内监管政策的积极变化及相关人事调整等方面。

恩格勒认为,欧盟构建严密人工智能监管体系的最新进展以拟议中的《人工智能法》草案为代表,将为数字服务(如招聘和招生软件)和互联网产品(如医疗设备)中的高风险人工智能应用设立严格的监管规定。同时,欧盟也积极致力于将关于人工智能政策的讨论和协调融入到新成立的欧盟-美国贸易和技术委员会(TTC)议程中去,希望能与美国在一些具体问题上达成治理共识,美国对此也表示乐见其成。另一方面,由于欧盟《人工智能法》草案的审议流程还将持续一段时间,参考《通用数据保护条例》(GDPR)的生效过程,《人工智能法》主导下的重大监管决定恐怕要等到几年后才会出台,而在通过TTC加强与欧盟治理合作的背景下,美国无论是现阶段国内监管政策的调整,还是未来几年政策变化的趋势,都有可能与欧盟逐渐靠拢,甚至在决策和执行速度方面领先于欧盟。

就美国国内人工智能监管政策而言,恩格勒认为,诸多分散和渐进式的政策发展正在汇聚成具有积极意义的变化。例如,美国食品和药物管理局和美国交通部一直致力于将人工智能监管纳入其监管框架;美国联邦贸易委员会(FTC)于近期启动了对于人工智能歧视、欺诈和数据滥用等问题的监管规则制定;住房和城市发展部正着手推翻原先制定的一项规则,允许人们对与住房分配有关的算法决策不公提起歧视诉讼和索赔;平等就业机委员会发起了一项在人员雇佣和办公场所管理等方面需合理有限采用人工智能系统的倡议;五大金融监管部门也已开始调查美国金融机构中存在的影响风险管理、公平借贷和信用额度的人工智能应用及相关做法。与此同时,美国国家标准和技术研究院正在制定一个人工智能风险管理框架,部分参考了欧盟对人工智能进行分级监管的思路;参议院最近拟议的《平台责任和透明度法案》则提出在经国家科学基金会批准并由FTC强制执行企业合规的前提下,科研人员将可以使用来自各大互联网平台的原始数据。其立法思路与欧盟的《数字服务法》草案核心条款也颇为类似。

在美国监管机构负责人的人事调整方面,拜登政府任用了知名反垄断专家莉娜·汉(LinaKhan)担任FTC主席,麦莉蒂斯·怀特柯(MeredithWhittaker)负责AINow研究所,并邀请资深人工智能危害研究学者苏莱希·文可塔苏波莱曼年(SureshVenkatasubramanian)和拉希达·理查德森(RashidaRichardson)加入白宫科技政策办公室,启动一系列关于生物识别等有害人工智能技术的公共活动,以推动人工智能权利法案的制定。

恩格勒认为,上述这些政策安排显示拜登政府正在趋向与欧盟相类似的人工智能监管目标,并且在具体行动上也变得更为积极主动,客观上将加强欧美双方在人工智能治理政策上的一致性。但是,双方还可以采取更进一步的行动,特别是在遏制人工智能危害方面形成共同的定义和治理方法,为达成长期政策对标奠定基础。首先,应当推动双方国家标准机构之间实现更多的人工智能数据共享,以及具体监管机构、人员之间的沟通与合作。其次,双方可委派特定人员组成一个国际人工智能监管协调机构来推动双方政策对标,并就如何避免规则冲突向各相关方面提供建议。在此基础上,双方可继续致力于实现一致的人工智能系统审计程序和标准,以及通过对人工智能系统的联合实验、测试等方式来促成更有凝聚力的监管行动。接下来,美国和欧盟还应该考虑将监管合作融入TTC协商议程,为更广泛的全球治理做好准备。

美国和欧盟前期在人工智能监管政策方面的思路差异主要源于其产业发展实际状况的差别,但归根结底都是为了打造自身的竞争力和技术主导权。随着人工智能领域的竞争从技术研发、数字经济层面逐渐扩展到国际规则制定层面,双方意识到国际协同治理的重要性,在具体监管政策上开始趋同也属意料之中。当前,全球正处于人工智能技术创新和产业增长的爆发期,各国各地区纷纷出台人工智能战略,而监管正是其中一项十分重要的政策工具,加强国际监管合作亦是实现利益共赢的理性选择。同样作为人工智能大国的中国,也应考虑积极投身人工智能领域的国际治理合作与标准制定,重视AI伦理,加强AI治理,从而进一步提升科技竞争力和规则话语权。

国家互联网信息办公室关于《生成式人工智能服务管理办法(征求意见稿)》公开征求意见的通知

为促进生成式人工智能技术健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,现向社会公开征求意见。公众可通过以下途径和方式提出反馈意见:1.登录中华人民共和国司法部中国政府法制信息网(www.moj.gov.cn、www.chinalaw.gov.cn),进入首页主菜单的“立法意见征集”栏目提出意见。2.通过电子邮件方式发送至:wajscy@cac.gov.cn。3.通过信函方式将意见寄至:北京市海淀区阜成路15号国家互联网信息办公室网络安全协调局,邮编100048,并在信封上注明“生成式人工智能服务管理办法征求意见”。意见反馈截止时间为2023年5月10日。

附件:生成式人工智能服务管理办法(征求意见稿)

国家互联网信息办公室2023年4月11日

生成式人工智能服务管理办法

(征求意见稿)

第一条为促进生成式人工智能健康发展和规范应用,根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规,制定本办法。第二条研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。

本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。

第三条国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。

第四条提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:

(一)利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。

(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。

(三)尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。

(四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。

(五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。

第五条利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。

第六条利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。

第七条提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。

用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:

(一)符合《中华人民共和国网络安全法》等法律法规的要求;

(二)不含有侵犯知识产权的内容;

(三)数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;

(四)能够保证数据的真实性、准确性、客观性、多样性;

(五)国家网信部门关于生成式人工智能服务的其他监管要求。

第八条生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。

第九条提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。

第十条提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。

第十一条提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。

第十二条提供者不得根据用户的种族、国别、性别等进行带有歧视性的内容生成。

第十三条提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。

第十四条提供者应当在生命周期内,提供安全、稳健、持续的服务,保障用户正常使用。

第十五条对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。

第十六条提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。

第十七条提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。

第十八条提供者应当指导用户科学认识和理性使用生成式人工智能生成的内容,不利用生成内容损害他人形象、名誉以及其他合法权益,不进行商业炒作、不正当营销。

用户发现生成内容不符合本办法要求时,有权向网信部门或者有关主管部门举报。

第十九条提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。

第二十条提供者违反本办法规定的,由网信部门和有关主管部门按照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规的规定予以处罚。

法律、行政法规没有规定的,由网信部门和有关主管部门依据职责给予警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停或者终止其利用生成式人工智能提供服务,并处一万元以上十万元以下罚款。构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。

第二十一条本办法自2023年月日起实施。

网信办出台生成式人工智能管理办法,亮绿灯还是踩刹车

昨天(4月11日),国家网信办起草《生成式人工智能服务管理办法(征求意见稿)》(下称《办法》),并向社会公开征求意见。办法的出台意味着什么,未来生成式人工智能在中国的发展应该如何开展,世界各国又做了怎样的准备?今天我们来聊一聊。

4月11日,国家网信办起草《生成式人工智能服务管理办法(征求意见稿)》(下称《办法》),并向社会公开征求意见。几个月以来,生成式人工智能(AIGC)一直是人们关注的焦点,从ChatGPT到文心一言,再到GPT-4和各类生成式人工智能,生成式人工智能的浪潮滚滚向前。

而在国内外近半年来的体验中,发现了生成式人工智能的许多问题。也是因此,国家主动出手,秉承着发展的主基调,划定责任主体,制定行业底线,为中国的生成式人工智能健康发展亮起绿灯。

《办法》首先明确,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作。因此,制订管理办法正是为了未来更好地发展该技术,而不是限制该技术。

01

三大问题,一次规定

《办法》集中瞄准生成式人工智能的三大问题,从明确条件要求、划定责任主体、形成问题处理机制、清晰法律责任几个方面为行业划定底线。而研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,均在《办法》的适用范围内。

无论是中国还是外国公司,在底线之上,则大有可为。

一是隐私安全问题。人工智能对大数据极度依赖,往往需要经年累月的有关于用户的深度信息才能塑造一个成熟的人工智能。而有关于数据收集和保存的问题已经引起了有关隐私问题的担忧。即使是风靡全球的ChatGPT,近日也被爆出存在隐私泄露风险。

据英国广播公司(BBC)报道,当地时间3月22日,ChatGPT的开发公司OpenAI创始人山姆·阿尔特曼在推特发文称,该AI的一个故障让一些用户能够看到其他用户对话历史记录的标题。几乎是同时,意大利成为全球首个禁用ChatGPT的国家。意大利隐私保护监管机构因隐私安全问题封锁ChatGPT。

OpenAI创始人山姆·阿尔特曼资料图

在生成式人工智能发展的道路上,隐私安全是不可能绕过的问题。对此,《办法》规定,生成式人工智能提供者需“承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。”

二是技术滥用问题。人工智能本质上是提升人类生产力的工具,但当这种工具和技术被用于损害公共利益和安全时,他们的“尤其好用”会变为“尤其危险”。而如果人工智能技术被用于金融、网络犯罪,将会给执法机关造成前所未有的破案难度。

截至目前,人工智能生成图片已经造成了不小的问题。例如Midjourney这类人工智能生成图片的应用软件被滥用,引起了混乱。

近日,马斯克接连在Twitter上评论了多张人工智能合成的他本人的照片,其中有一张照片是马斯克和通用汽车女掌门人MaryBarra手牵手。马斯克评论道:“我肯定不会穿这身衣服。”国内,也有人使用人工智能给地铁上的女乘客“一键脱衣”。随着生成式人工智能的进步,类似的技术滥用问题可能会越来越严重。

在与技术滥用问题相关的虚假信息管理和他人权益问题上,《办法》规定“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。”

三是知识产权和他人权益问题。生成式人工智能在输出内容的过程中,其输出的内容很有可能造成专利侵权、商标侵权、版权侵权、未经许可使用软件或数据等问题。同时,生成式人工智能所产生的内容是否具有著作权,也是有争议的问题。

对此,《办法》也作出了初步规定,包括生成式人工智能的训练“不含有侵犯知识产权的内容”“数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形”等。

同时,生成式人工智能提供者需要建立侵权投诉及保护机制,“及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。”

02

多国为AIGC发展建立护栏

对于中国这样一个用户主体庞大且极其多样化、数据质量参差不齐的巨大市场,某一行业的高速发展永远离不开监管的保驾护航。特别是生成式人工智能这样一个崭新却又充满挑战性的领域。实际上,各国对于生成式人工智能的监管都已在路上。

中国方面。《生成式人工智能服务管理办法(征求意见稿)》的制定与实施将帮助确保人工智能产品的合理与安全使用。强调提供者承担生成内容生产者的责任,以及涉及个人信息时承担个人信息处理者的法定责任,并履行个人信息保护义务,有利于保护用户数据和隐私。

美国方面。得益于ChatGPT的流行,美国企业开始不断尝试使用人工智能赋能应用场景。但与此同时,对人工智能的担忧也在增加。几乎与《办法》同时,美国商务部4月11日也就相关问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序等。美商务部下属国家电信和信息管理局(NTIA)正在就企业和监管机构如何合作进行调研,以此为基础,建立人工智能模型可信度、合法性和道德准则相关的审查制度。NTIA的调查将侧重于搭建监管人工智能的最佳方法,并在技术发展进程中,为白宫和国会不断输出政策建议。这项调查拟邀请公司、民间社会团体、研究人员和公众群策群力。目前拜登政府也已经开始研究是否需要对ChatGPT等人工智能工具实行检查。

拜登政府正在权衡为ChatGPT等人工智能工具设定规则图源:《华尔街日报》

欧盟方面。目前欧盟和美国一样,还并没有针对生成式人工智能的立法,但已经有了成型的人工智能立法。欧盟的人工智能立法,即《人工智能法案》(AIAct),将于2024年正式生效。《人工智能法案》的目标是让公民和消费者感到信任,并维护欧盟的价值基础。2023年2月8日,欧洲议会人工智能伦理领域顾问AnnaFelländer在欧盟委员会官网发表了ChatGPT’srapidentry–UrgentforthegovernmenttoappointanauthorityforresponsibleAI一文,提出了关于为什么要对生成式AI进行监管。人工智能监管的根本问题在于:究竟是人工智能来控制人类,还是人类来控制人工智能。因此,道德、法律、风险评估都十分重要。

“看到这些工具即使在相对初级阶段也能做到的事情,真是令人惊讶,”NTIA局长艾伦·戴维森说,“我们知道,我们需要设置一些护栏,以确保它们被负责任地使用。”

目前不管是欧盟、美国还是中国,都已经意识到了人工智能领域,尤其是生成式人工智能,既充满了发展的潜力,也遍布了危险的荆棘。因此三个主要经济体几乎同一时间对生成式人工智能设置“护栏”,保证发展的安全性。完善的治理,一方面将保障国家安全和公共安全,另一方面,也可以促进新兴技术和产业的发展,加强国际竞争力。

03

科学与技术走好AIGC安全发展之路

在人工智能技术的发展、落地和应用场景扩散的趋势不断扩大的当下,《办法》的推出坚定了中国未来走好生成式人工智能发展之路的决心。

要发展,也要安全。《办法》中明确提到,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。可以看出,生成式人工智能是国家坚定支持的领域,发展是主基调。对于这个领域的企业和组织来说,前途广阔、大有可为。

数据安全、隐私安全、道德和法律,则是生成式人工智能治理的基础。《办法》提出,“利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。”同时,提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。

各国对生成式AI的重视不单单是针对一个未来有前景的新生事物,更重要的是其背后解放和发展当前其他领域的生产力的潜力。未来生成式人工智能极有可能成为主流生产力本身。中国出台相关管理办法正是为了未来发展该技术做准备。

目前《办法》仍处于征求意见阶段,未来还可能收纳各方意见进行调整。《办法》敲定之后,将有助于行业健康发展,遏制不良行为。这一举措显示出中国对生成式人工智能服务发展的关注和支持,希望通过规范管理,保障人工智能技术在安全、合规的环境中发展,同时保护用户的隐私和权益。未来也可将有代表性的人工智能公司纳入治理体系,同监管机关合作开发与技术发展和市场竞争相适应的监管框架。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇