人民日报评论:强化人工智能安全治理
作为新一轮科技革命和产业变革的重要驱动力量,人工智能技术发展与应用拓展正在按下“快进键”。今年11月,习近平总书记主持召开的中央政治局会议强调,加快提升生物安全、网络安全、数据安全、人工智能安全等领域的治理能力。这为推动人工智能健康发展提供了重要指引。
在人机协同、跨界融合、共创分享的智能时代,人工智能的应用场景愈发广泛。人工智能为经济社会发展注入活力的同时,也给人类生活带来了新的风险挑战,比如对个人隐私权、知情权、选择权的侵犯,以及窃取、篡改、泄露等非法收集利用个人信息的行为,等等。为此,迫切需要加快提升人工智能安全治理能力,加强人工智能相关法律、伦理、社会问题等研究,建立健全保障人工智能健康发展的法律法规与伦理体系。
加快提升人工智能安全治理能力,需要完善相关的法律法规及行业标准。人工智能的安全秩序包含算法安全、数据安全、伦理安全、国家安全等维度。2019年以来,中国先后发布《新一代人工智能治理原则——发展负责任的人工智能》《全球数据安全倡议》等文件,明确了人工智能治理框架和行动指南。今年9月发布的《新一代人工智能伦理规范》强调,将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题,为从事人工智能相关活动的自然人、法人和其他相关机构等提供了伦理指引。
加快提升人工智能安全治理能力,要引导社会公众正确认识人工智能。人工智能监管者要提高站位,加强宏观战略研究与风险防范;人工智能研发者要坚持正确价值导向,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性;人工智能的技术提供者要明确告知义务,加强应急保障;人工智能产品的使用者,应当保证这一技术不被误用、滥用或恶用。要对各类伦理道德风险保持高度警惕,坚持以人为本,落实科技向善理念,弘扬社会主义核心价值观。
加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控,也是摆在世界各国面前的重要课题。在推动完善人工智能全球治理方面,中国是积极倡导者,也是率先践行者。2020年9月,中国发布《全球数据安全倡议》,明确提出秉持共商共建共享理念,齐心协力促进数据安全;今年5月,中国担任联合国安理会轮值主席期间,主持召开“新兴科技对国际和平与安全的影响”阿里亚模式会议,推动安理会首次聚焦人工智能等新兴科技问题,为国际社会探讨新兴科技全球治理问题提供了重要平台,体现了大国责任担当。
数字化浪潮扑面而来,信息化、数字化、智能化趋势不断演进。主动加强对人工智能的伦理与法律规范,才能更好适应人工智能快速发展的新变化、新要求,在法治轨道上推动人工智能向善发展、造福人类。
(作者为北京理工大学法学院教授)
(责任编辑:柯晓霁)
【责任编辑:张瑨瑄】中国关于加强人工智能伦理治理的立场文件
一、人工智能作为最具代表性的颠覆性技术,在给人类社会带来潜在巨大发展红利的同时,其不确定性可能带来许多全球性挑战,甚至引发根本性的伦理关切。在伦理层面,国际社会普遍担心如不加以规范,人工智能技术的误用滥用恐将损害人的尊严和平等、侵犯人权和基本自由、加剧歧视和偏见、冲击现有法律体系等,并对各国政府管理、国防建设、社会稳定其至全球治理产生深远影响。
中国始终致力于在人工智能领域构建人类命运共同体,积极倡导“以人为本”和“智能向善”理念,主张增进各国对人工智能伦理问题的理解,确保人工智能安全、可靠、可控,更好赋能全球可持续发展,增进全人类共同福祉。为实现这一目标,中国呼吁各方秉持共商共建共享理念,推动国际人工智能伦理治理。
二、2021年12月,中国发布《关于规范人工智能军事应用的立场文件》,呼吁各方遵守国家或地区人工智能伦理道德准则。中国现结合自身在科技伦理领域的政策实践,参考国际社会相关有益成果,从人工智能技术监管、研发、使用及国际合作等方面提出以下主张:
(一)监管
各国政府应坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。
各国政府应重视人工智能伦理与法律的基础理论问题研究,逐步建立并完善人工智能伦理规范、法律法规和政策体系,形成人工智能伦理指南,建立科技伦理审查和监管制度,加强人工智能安全评估和管控能力。
各国政府应增强底线思维和风险意识,加强研判人工智能技术的潜在伦理风险,逐步建立有效的风险预警机制,采取敏捷治理,分类分级管理,不断提升风险管控和处置能力。
各国政府应立足自身人工智能发展阶段及社会文化特点,遵循科技创新规律,逐步建立符合自身国情的人工智能伦理体系,健全多方参与、协同共治的人工智能伦理治理体制机制。
(二)研发
各国政府应要求研发主体加强对人工智能研发活动的自我约束,主动将伦理道德融入人工智能研发过程各环节,避免使用可能产生严重消极后果的不成熟技术,确保人工智能始终处于人类控制之下。
各国政府应要求研发主体努力确保人工智能研发过程的算法安全可控,在算法设计、实现、应用等环节,不断提升透明性、可解释性、可靠性,逐步实现可审核、可监督、可追溯、可预测、可信赖。
各国政府应要求研发主体努力提升人工智能研发过程的数据质量,在数据收集、存储、使用等环节,严格遵守所在国的数据安全规定、伦理道德及相关法律标准,提升数据的完整性、及时性、一致性、规范性和准确性等。
各国政府应要求研发主体加强对数据采集和算法开发伦理审查,充分考虑差异化诉求,避免可能存在的数据采集与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。
(三)使用
各国政府应禁止使用违背法律法规、伦理道德和标准规范的人工智能技术及相关应用,强化对已使用的人工智能产品与服务的质量监测和使用评估,研究制定应急机制和损失补偿措施。
各国政府应加强人工智能产品与服务使用前的论证和评估,推动人工智能伦理培训机制化,相关人员应充分了解人工智能技术的功能、特点、局限、潜在风险及后果,并具备必要的专业素质与技能。
各国政府应保障人工智能产品与服务使用中的个人隐私与数据安全,严格遵循国际或区域性规范处理个人信息,完善个人数据授权撤销机制,反对非法收集利用个人信息。
各国政府应重视公众人工智能伦理教育,保障公众知情权与有效参与,发挥科技相关社会团体作用,引导社会各界自觉遵守人工智能伦理准则与规范,提高人工智能伦理意识。
(四)国际合作
各国政府应鼓励在人工智能领域开展跨国家、跨领域、跨文化交流与协作,确保各国共享人工智能技术惠益,推动各国共同参与国际人工智能伦理重大议题探讨和规则制定,反对构建排他性集团、恶意阻挠他国技术发展的行为。
各国政府应加强对人工智能领域国际合作研究活动的伦理监管,相关科技活动应符合各方所在国家的人工智能伦理管理要求,并通过相应的人工智能伦理审查。
中国呼吁国际社会在普遍参与的基础上就人工智能伦理问题达成国际协议,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。
人民日报评论:强化人工智能安全治理
作为新一轮科技革命和产业变革的重要驱动力量,人工智能技术发展与应用拓展正在按下“快进键”。今年11月,习近平总书记主持召开的中央政治局会议强调,加快提升生物安全、网络安全、数据安全、人工智能安全等领域的治理能力。这为推动人工智能健康发展提供了重要指引。
在人机协同、跨界融合、共创分享的智能时代,人工智能的应用场景愈发广泛。人工智能为经济社会发展注入活力的同时,也给人类生活带来了新的风险挑战,比如对个人隐私权、知情权、选择权的侵犯,以及窃取、篡改、泄露等非法收集利用个人信息的行为,等等。为此,迫切需要加快提升人工智能安全治理能力,加强人工智能相关法律、伦理、社会问题等研究,建立健全保障人工智能健康发展的法律法规与伦理体系。
加快提升人工智能安全治理能力,需要完善相关的法律法规及行业标准。人工智能的安全秩序包含算法安全、数据安全、伦理安全、国家安全等维度。2019年以来,中国先后发布《新一代人工智能治理原则——发展负责任的人工智能》《全球数据安全倡议》等文件,明确了人工智能治理框架和行动指南。今年9月发布的《新一代人工智能伦理规范》强调,将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题,为从事人工智能相关活动的自然人、法人和其他相关机构等提供了伦理指引。
加快提升人工智能安全治理能力,要引导社会公众正确认识人工智能。人工智能监管者要提高站位,加强宏观战略研究与风险防范;人工智能研发者要坚持正确价值导向,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性;人工智能的技术提供者要明确告知义务,加强应急保障;人工智能产品的使用者,应当保证这一技术不被误用、滥用或恶用。要对各类伦理道德风险保持高度警惕,坚持以人为本,落实科技向善理念,弘扬社会主义核心价值观。
加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控,也是摆在世界各国面前的重要课题。在推动完善人工智能全球治理方面,中国是积极倡导者,也是率先践行者。2020年9月,中国发布《全球数据安全倡议》,明确提出秉持共商共建共享理念,齐心协力促进数据安全;今年5月,中国担任联合国安理会轮值主席期间,主持召开“新兴科技对国际和平与安全的影响”阿里亚模式会议,推动安理会首次聚焦人工智能等新兴科技问题,为国际社会探讨新兴科技全球治理问题提供了重要平台,体现了大国责任担当。
数字化浪潮扑面而来,信息化、数字化、智能化趋势不断演进。主动加强对人工智能的伦理与法律规范,才能更好适应人工智能快速发展的新变化、新要求,在法治轨道上推动人工智能向善发展、造福人类。
(作者为北京理工大学法学院教授)
(责任编辑:柯晓霁)强化人工智能安全治理
作者:肖君拥北京理工大学法学院教授
作为新一轮科技革命和产业变革的重要驱动力量,人工智能技术发展与应用拓展正在按下“快进键”。今年11月,习近平总书记主持召开的中央政治局会议强调,加快提升生物安全、网络安全、数据安全、人工智能安全等领域的治理能力。这为推动人工智能健康发展提供了重要指引。
在人机协同、跨界融合、共创分享的智能时代,人工智能的应用场景愈发广泛。人工智能为经济社会发展注入活力的同时,也给人类生活带来了新的风险挑战,比如对个人隐私权、知情权、选择权的侵犯,以及窃取、篡改、泄露等非法收集利用个人信息的行为,等等。为此,迫切需要加快提升人工智能安全治理能力,加强人工智能相关法律、伦理、社会问题等研究,建立健全保障人工智能健康发展的法律法规与伦理体系。
加快提升人工智能安全治理能力,需要完善相关的法律法规及行业标准。人工智能的安全秩序包含算法安全、数据安全、伦理安全、国家安全等维度。2019年以来,中国先后发布《新一代人工智能治理原则——发展负责任的人工智能》《全球数据安全倡议》等文件,明确了人工智能治理框架和行动指南。今年9月发布的《新一代人工智能伦理规范》强调,将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题,为从事人工智能相关活动的自然人、法人和其他相关机构等提供了伦理指引。
加快提升人工智能安全治理能力,要引导社会公众正确认识人工智能。人工智能监管者要提高站位,加强宏观战略研究与风险防范;人工智能研发者要坚持正确价值导向,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性;人工智能的技术提供者要明确告知义务,加强应急保障;人工智能产品的使用者,应当保证这一技术不被误用、滥用或恶用。要对各类伦理道德风险保持高度警惕,坚持以人为本,落实科技向善理念,弘扬社会主义核心价值观。
加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控,也是摆在世界各国面前的重要课题。在推动完善人工智能全球治理方面,中国是积极倡导者,也是率先践行者。2020年9月,中国发布《全球数据安全倡议》,明确提出秉持共商共建共享理念,齐心协力促进数据安全;今年5月,中国担任联合国安理会轮值主席期间,主持召开“新兴科技对国际和平与安全的影响”阿里亚模式会议,推动安理会首次聚焦人工智能等新兴科技问题,为国际社会探讨新兴科技全球治理问题提供了重要平台,体现了大国责任担当。
数字化浪潮扑面而来,信息化、数字化、智能化趋势不断演进。主动加强对人工智能的伦理与法律规范,才能更好适应人工智能快速发展的新变化、新要求,在法治轨道上推动人工智能向善发展、造福人类。(肖君拥)
[责编:刘朝]分论坛五|人工智能与数据安全
2020年12月19日上午,首届清华大学人工智能合作与治理国际论坛举行了“人工智能与数据安全”分论坛,由北京智源人工智能研究院承办。在分论坛上,学者与产业专家聚焦讨论了数据与人工智能的近期与远期风险与安全挑战及对策。剑桥大学智能未来研究中心研究员丹尼特·加尔(DanitGal)重点总结了人工智能安全相关的内部风险与外部防御的近期挑战,并对各国数据规制应当形成全球协作提出建议。荷兰埃因霍温科技大学教授文森特·穆勒(VincentMuller)指出通用人工智能和超级智能的长远风险具有极大不确定性。美国路易斯维尔大学教授罗曼·扬波尔斯基(RomanYampolskiy)谈及人工智能、安全和防御的未来,并表达了对于人工智能的担忧。奇虎360人工智能研究院院长邓亚峰、数据科学家麻丹彤、腾讯研究院高级研究员曹建峰、北京师范大学网络法治国际中心执行主任吴沈括也分别就人工智能与数据安全、面临的机遇、挑战和发展趋势等发表了一系列前瞻洞见。与会专家一致表示,全球应当深度协作应对数据与人工智能的近期与长远风险。分论坛由北京智源人工智能研究院人工智能伦理与可持续发展中心主任、中科院自动化所中英人工智能伦理与治理中心主任曾毅主持。
此次论坛得到了清华大学人工智能研究院、清华大学智能产业研究院、清华大学战略与安全研究中心、北京智源人工智能研究院、清华大学中国科技政策研究中心、清华大学科技发展与治理研究中心、美国布鲁金斯学会、SPARK联合国开发计划署可持续发展创新实验室以及清华大学产业发展与环境治理研究中心等机构的合作与支持。
专家观点
(根据首届清华大学人工智能发展与治理国际论坛上的专家发言整理)
1.丹尼特·加尔(DanitGal):人工智能安全相关的内部风险与外部防御
新兴科技影响着我们所有人,它的安全和保障也是如此。可悲的是,我们应对新兴科技影响的能力远远落后于科学技术的开发和使用。科技快速发展带来的不确定性和社会风险,往往是全面且不可逆的,危害程度也非常高。
人工智能相关的自动化趋势,其实存在一种“悖论”:机器越能干,对操作者的技能要求和熟练度程度就越高:其一,有能力和直觉的系统通过自动纠正我们的错误来适应人类的无能;其二,这种能力消除了人类实践的需要,因此即使是熟练的操作人员也可以脱离实践;其三,当系统确实发生故障时,它会以意想不到的方式发生故障,或者产生意想不到的情况,需要熟练的人工处理才能恢复过来。针对自动化引起的安全问题,电气与电子工程师协会标准协会(IEEESA)正在制定自治和半自治系统的故障安全设计标准。该标准为在自治和半自治系统中开发,实施和使用有效的故障安全机制建立了特定方法和工具的实用技术基准。该标准包括(但不限于):用于测量,测试和认证系统从弱到强的安全失效能力的清晰程序,以及在性能不令人满意的情况下进行改进的说明。该标准是开发人员以及用户和监管者以健壮,透明和负责任的方式设计故障安全机制的基础。
人工智能和数据流进一步复杂化了这一动态,引入并连接了新的机会和新的漏洞。当人们通过互联网和人工智能系统连接到社会系统之中时,系统的脆弱性被放大了。其一,技术及其前景和危险不可能被地缘政治边界完全遏制;其二,现有的漏洞被人工智能和数据流放大了,引入了新的故障点,安全隐患就此埋下;其三,这些故障的传播范围很广,通常是不可见的,影响着全球连接的网络;其四,我们没有全球机制来确定和共同开发技术和社会解决方案。因此,我们必须投资于全球合作与协调,以减少脆弱性,同时最大限度地扩大机会。
2.文森特·穆勒(VincentMuller):超级智能终将引致存在性风险
超级智能(Superintelligence)将带来技术奇点(Singularity),进而让人类面临“存在性风险”(X-risk:existentialrisk)。所谓“存在性风险”,是指以Musk和霍金为代表的这些人最害怕的是人工智能将威胁人类在地球上的生存与存在。
超级智能(Superintelligence)将带来技术奇点(Singularity)建立在诸多假设的基础上。第一个基础假设是,运算速度的提升、数据量的无限膨胀、潜在技术能力的进一步释放。当第一台超智能机器诞生时,就注定了这一台机器是人类最不需要的发明。因此,人类要在开发人工智能时,需要不时反问自身,只要机器足够温顺,能告诉我们如何控制它。第二个基础假设是,认知科学不再是发展人工智能技术所必须考虑的基础问题了,虽然,技术设计者面临“常识知识不简单,复杂问题不困难”的悖论。第三个基础假设是,在诸多感知领域,人工智能的专项技能的性能表现已经超越了人类器官。也就是说,至少在生活中的部分领域出现了人类级别的机器智能,甚至是超人类级别的机器智能。对人类身体技能的全面超越,就目前的技术发展趋势,完全有可能。
从技术奇点到生存性危机同样需要基于以下两个基础假设。第一个基础假设是,理性主体决策理论适用于人工智能。当人类还囿于情绪、无意识等自身因素时,人工智能做出的选择,永远是理性选择,即具有最大主观期望效用的是理性的,期望效用=效用*概率。决策理论是规范性的,而不是描述性的。但对于传统AI来说是规范和描述性的。科学上重要但被忽视的问题:极高的效用*低的可能性,也可以被人工智能充分利用,甚至构建出来。第二个基础假设为正交性假设。即智慧和道德,对于人工智能而言,是完全不同的两个话语维度。也就是说,在技术奇点出现之后,在人工智能的眼中,智力和最终的道德目标是正交的坐标轴,在这条坐标系中,可能的代理可以自由地变化。换句话说,或多或少,任何水平的智力在原则上都可以与各种的任何最终目标(无论其道德或者不道德)相结合。正交性理论暗示,合成大脑可以拥有完全非拟人化的目的,就像我们眼中的沙粒计数或剪纸夹最大化一样古怪。也就是说,超级智能极有可能是不道德的。
奇点之后,人们需要无时不刻的与人工智能处于一种链接状态,上传自己的一切数据,然后被机器决定。人类将无法控制事态的发展,无法面对自身生存的风险。当机器全面接管之后,人类注定要灭亡。
3.罗曼·扬波尔斯基(RomanYampolskiy):人工智能安全和防御的未来
当前超级智能正在来临,超级智能意味着超级聪明(SuperSmart)、超级复杂(SuperComplex)、超级快速(SuperFast)、超级控制(SuperControlling)、超级病毒(SuperViruses)。为了解决人类关于人工智能的忧惧,目前,有几项非常值得关注的研究工作,包括通往危险的人工智能的路径分类学、人工智能安全不可能的结果、缓解负面影响、人工智能的限制问题等。他认为,人工智能失败的时间轴,呈指数趋势,人工智能失败的频率和严重程度都会增加,这与人工智能的能力成比例。
超级智能的超级聪明在特定领域变现的尤为明显:AlphaGo系列战胜围棋世界冠军、IBM的沃森在“危险边缘”竞赛中战神两期冠军、虚拟机器人在德州扑克中战胜多名玩家、模拟算法在团队电子游戏Dota2中战胜世界冠军团队等等。
超级智能在复杂系统中的行为更是难以追踪。在航空控制和航空驾驶中,面对复杂的系统,飞机操作人员或飞行员中很少有人了解那部分软件;但是,对于超级智能而言,却是非常轻松胜任操作工作,但是,其复杂程度已然超过了顶级飞行员的理解能力。
超级智能的运算速度明显强于人类。当人类将决策赋权为机器智能后,超级智能可能在极其短暂的时间内做出大量的决策,其结果可能是毁灭式的。根据ScientificReports中的陈述表明:2008年金融危机的起因极有可能是华尔街的超级计算机20秒内大规模的自动量化交易引起的美国当地股市大崩盘。
随着越来越多的产业加速其数字化进程,超级智能展现出越来越强大的控制能力——“超级控制”的概念被多次提及。例如在能源领域,机器智能越来多地出现在核电站的管理中;智能电网对供电网络的全面升级;金融领域中,目前75%以上的交易订单由自动交易系统产生;在军事领域中,人脸识别技术等人工智能被运用到武器开发中,出现了新型智能武器,同时,智能监控系统、自动发射系统也被用到武器自动控制中;在航空领域,超级智能的自动化,可以实现不间断自动巡航系统,在增强安全性能的同时极大地降低了人力成本。
随着智能化程序的诞生,计算机病毒也随之“水涨船高”,出现了各种超级病毒。自互联网时代以来,超级病毒层出不穷。例如,通过MicrosoftOutlook电子邮件系统传播的爱虫病毒(ILOVEYOU)、通过软件之间的相互拷贝、盗版光盘的使用和Internet的传播而大面积传染CIH病毒、“黑色星期五”等病毒,而且,随着人工智能的出现,很多病毒开始与智能化程序相结合的趋势,增强了计算机病毒深入各类机器系统的能力,其潜在风险逐步加大。
在面对超级智能带来的超级聪明、超级复杂、超级快速、超级控制、超级病毒等人类不可控的情景时,来自产业界、政界或学界的专家学者纷纷表达出各种担忧。而且,通过危险人工智能的分类学研究,可以发现,按照应对危险的部署逻辑时段和主导因素两位维度,可以将超级智能危险分为8类:不道德的人(黑客,罪犯,军人,公司,政府,邪教,精神病患者等等)故意危险行为、低劣技术设计(程序漏洞BUG,错误的赋值,错误的数据,错误的目标)的副作用、系统周围环境的突发案例或影响(软件错误、对外星智能的探索SETI)、失控的自我完善过程(违背道德的目标转向、突发状况)。
为了缓解超级智能的负面影响,从计算机诞生之日起,也伴随着诞生了形形色色的解决方案。显然,限制人工智能的限制并不可取,但是,保留“重新设置”的权力确实非常有必要,因为人工智能失败的频率和严重程度都会增加,该频率和严重程度与人工智能的能力成比例。
4.邓亚峰:正视人工智能风险,乐观拥抱未来
近年来,随着深度学习技术的迅猛发展,人工智能在社会经济的各个领域都取得了巨大进步。比如,最近AlphaFold在蛋白质结构预测领域的进步又一次震惊了世界。我们身处一个数字化、智能化的时代,人工智能已迎来了应用落地发展的时代契机,对整个人类世界而言,人工智能已成为新一轮产业变革的核心驱动力量。但是,随着人工智能和大数据技术的应用落地,特别是在诸多安全敏感型的场景应用越来越多,比如自动驾驶、人脸识别、恶意代码检测、医疗诊断等,AI和数据安全问题也受到世界的广泛关注。
首先,由于人工智能是快速出现的新应用,AI应用生产和部署的各个环节都暴露出了一系列的安全风险。比如在人工智能框架方面,深度学习框架及依赖组件可能带有漏洞,存在着容易被忽视的安全隐患;在人工智能应用方面,存在着模型文件窃取、数据流的降维攻击等安全风险;在人工智能硬件方面,存在传感器干扰实现欺骗、致盲,海豚音攻击等安全风险;在人工智能算法方面,由于神经网络模型的黑盒属性(不可解释性),导致了一系列以模型误判为目标的恶意攻击,如投毒攻击、逃逸攻击、后门攻击、对抗样本攻击等。
其次,人工智能和大数据应用往往与大量隐私数据关联,这些数据往往需要被送到云端进行分析和计算,这就造成了比原来更严重的数据泄露和安全风险。我们在实践中就发现了大量以隐私窃取为目标的攻击,如模型反转攻击、模型萃取攻击、成员推断攻击等。而且,随着数字化的程度加深,物理空间和虚拟空间已经打通,安全问题将不区分虚拟还是物理空间,而且是全局性、规模化的。
其三,虽然从技术角度看,人工智能体很长一段时间都无法拥有真正的自我意识,但是,我们无法排除一些坏人会对人工智能加以利用,伪装为坏的AI对人类安全造成威胁的可能。而这会带来大量的社会伦理问题,比如无人驾驶汽车出了问题,到底是AI的问题,是汽车厂商的责任,还是车主的责任。这样的话题还有非常多。这也从社会伦理层面,在人工智能和数据治理方面,产生了很多复杂问题。在英国的电视剧《黑镜》中,就体现了大量人工智能带来的威胁,这在以后的世界中确实会存在。
其四,由于AI在短期内会造成一部分从事简单重复性工作的人类失业,这会引起一定的恐慌和排斥。此外,AI也因为技术的不成熟,会被认为在识别结果上存在一定的歧视,当然,作为一个技术人员,相信结果的不完美并不是故意歧视,只是数据分布造成的不够完美。这些也是AI带来的短期问题。
当然还有很多其他潜在的威胁,在此不再赘述。
正是由于人工智能和数据的治理速度远远落后于人工智能和数据的应用速度,全球的每个组织和个人都有很多可以为此做的事情。首先,需要相关国家和组织联合起来,针对隐私保护和人工智能伦理问题等新情况,制定更加明晰有效的法律法规,保证在应用人工智能为人类造福的同时,保护数据隐私,避免相关社会伦理问题的困扰;其次,需要构建统一的人工智能硬件、软件、算法的安全评估标准和准则,并开发相关的系统,用于检测和确定人工智能相关的系统的整体安全,特别是开源框架和软件方面,更需要统一行动;再次,针对人工智能的安全,以及用人工智能解决安全问题等领域,需要联合起来,用更加开放协同的方式进行科学研究和技术交流,推动在上述两个方面人工智能技术更快速的落地。人工智能和数据安全,是全世界都统一面临的问题,需要全世界的组织和个人联合起来一起行动。
5.麻丹彤:数据安全是全球性的,需要各国合作解决
在过去的几年中,我在私营和公共部门从事AI方面的工作,我发现了一个有趣的现象:关于人工智能竞争的讨论很多,但关于人工智能治理协作的讨论还远远不够。让我感到担忧,因为零和心态可能会导致竞争加剧。
数据安全性是全球性的。因为创建漏洞和邀请攻击只需要一个弱点。
在这一方面,中国取得了长足的进步。10月,发布了《个人信息保护法》草案。它与全球个人数据保护方法高度一致。中国是技术提供商和消费者最大的市场之一。因此,中国为适应全球趋势而进行的立法努力是维护数据治理全球标准的有意义的举措。
6.曹建峰:人工智能开发与隐私保护存在紧张关系
人工智能产生偏差的原因多种多样,比较突出的原因是数据与算法。众所周知,要使当前的人工智能系统正常工作,您必须使用大量数据来训练算法。如果您的训练数据有偏差,或者包含的数据不够充分,您的系统在以后的使用中将显示有偏差的行为。许多人工智能系统,包括面部识别,聊天机器人,推荐系统,广告算法,招聘人工智能工具,语音识别,都因显示出对某些人或某些人群的偏见而受到批评。人口偏见是最突出的偏见,例如对种族,性别和年龄的偏见。至于偏差的来源,数据是人工智能偏差的最重要来源。因此,我认为开发应该对数据质量进行合理的控制。但是数据并不是造成偏差的唯一原因。
人工智能产生偏差的另一个重要原因是不法分子的滥用和非法使用。最突出的例子也许是deepfake。因此,在特殊的AI算法(称为生成对抗网络)的驱动下,deepfake可以生成面部,声音和视频,而无需真实的人实际说出来或在现实中做。但是,Deepfake的概念是对AI技术背后的误解。因此,我们认为深度综合是一个更好的术语。因为它有许多积极的应用。例如,这项技术可以将已经过世的演员重新带入电影中。由于真正的演员必须待在家里,因此它还可以创建数字虚拟演员来参与大流行中的电影拍摄。也许将来我们会拥有超级巨星虚拟演员,因为我们现在有许多著名的虚拟歌手。合成语音还支持许多语音助手应用程序。但是,如果不采取适当的保护措施,恶意参与者可以将Deepfake技术用于非法活动,例如欺诈,色情复仇,伪造身份,伪造新闻和虚假信息。例如,十月份,用户使用Telegram上的deepfake僵尸程序轻松制作和传播伪造的裸体图片。不良行为者也可能出于非法或不道德目的滥用或使用其他人工智能技术。
为解决这些问题,可以从以下四点方面着手:其一,人工智能与数据产品开发需要遵循“通过设计的伦理”(ethicsbydesign)理念,将公平、安全等伦理价值融入产品设计全周期,并有防止滥用的保障措施;二是在企业、国家乃至国际层面建立负责任的人工智能开发和数据使用的道德准则;三是在国际社会分享最佳实践经验;四是业界需要探索开发隐私保护型的AI技术方法,如联邦学习等,来在隐私保护与数据利用之间实现更好平衡。
7.吴沈括:国际社会需面对数据违法行为带来的法律漏洞
在AI时代,当前的数据冲突已遍及全球。按照这种观点,国际社会需要直面新技术环境中数据违规所带来的新挑战和法律空白,可以肯定的有以下几点:第一,不同地区和国家法律法规的缺失和差异,导致对新型数据违规的司法监管不足;第二,各国当前的法律制度框架尚不能完全确保快速,有效的跨境证据收集和交换;第三,在一些国家,监控,早期预警和应急机制变得越来越难以有效应对网络匿名环境下脆弱性问题的迅速增长。
在全球化深入发展的新时代,数据违规的跨国发展要求更高水平的国际合作管理,以应对日益严重的数据违规性。从这个意义上讲,我们可以考虑的方法选项包括3个元素:首先,我们必须在最大范围内建立国际共识,并积极构建全球法律框架,例如针对数据违约的国际条约,其重点是与责任标准,管辖权协调,信息共享,司法协助有关的系统规范设计等等。其次,我们需要最大程度地学习最佳做法,并及时创新跨国合作机制。特别是,迫切需要改进的是网络威胁信息共享和证据保留方面的通用跨国惯例。最后,我们应加强所有利益相关者的能力建设。为此,关键是要通过各种手段(例如人员培训和技术设备)更好地整合和增强诸如执法机构,行业以及公民社区等多个学科的商业技术知识和实践技能。从这个意义上说,我们高度赞赏国际社会近年来不断加强其反数据违反工作,而众多的全球对话平台是促进全球国家协同治理与多元治理的一个突出代表。
人工智能治理国内外政策与标准分析
文│阿里巴巴标准化部朱红儒、彭骏涛、孙勇;中国信息通信研究院安全研究所静静
人工智能(AI)作为新一轮科技革命的重要驱动力量,正在有效推动着数字化转型,其带来巨大机遇的同时,也伴随着新的风险和挑战。当前,人工智能仍处于快速发展阶段,其技术自身固有的脆弱性和管理体系落后于技术发展等诸多问题是客观存在的,人工智能的安全及治理是现阶段的重要课题。纵观全球,世界各国对人工智能的治理还没有统一认识,治理方案正在热议且尚处于起步阶段,但随着各国政策的逐步出台和实践,人工智能治理的特点正在逐渐明朗。近年来,党和国家高度重视人工智能研发利用,在“十四五”的开局之年,我国相继出台和制定了一系列纲领性文件及法律法规,在核心原则、制度要求等方面提出了领先的人工智能治理中国方案,为产业发展人工智能提供了指引方向,同时,国内外相关标准的建设也初具规模,补充了规范人工智能发展的技术及管理细则。
一、国际人工智能治理政策特点
(一)国际人工智能治理特点之一:治理目标坚持发展与规制并行
欧盟既推出产业和数据治理政策,希望加速人工智能产业发展,又同步推进监管规则制定。2018年4月,欧盟委员会发布《欧盟人工智能战略》,通过提高技术和产业能力、应对社会经济变革、建立适当的伦理和法律框架三大支柱,来确立欧盟人工智能价值观。2018年5月,欧盟实施《通用数据保护条例》(GDPR),在数据安全及隐私安全上制定了全球最严格的合规政策,其中涉及人工智能的主要有:GDPR要求人工智能的算法具有一定的可解释性,这对于“黑箱”人工智能系统来说可能具有挑战性。同时,GDPR第22条对包括画像在内的自动化决策提出了要求:如果自动化决策产生的法律效力涉及数据主体,或对数据主体有类似的重要影响,则数据主体应有权不成为此决策的对象。为了确保人工智能的发展尊重人权并获得信任,2021年4月21日,欧盟发布了《人工智能法案》(草案),为人工智能治理提供“硬法”支持,旨在促进欧洲在人工智能领域的创新能力,同时支持在整个欧盟经济中发展和采用合乎伦理且可信的人工智能。2022年,欧盟委员会提出了《人工智能责任指令》提案,进一步提出人工智能安全责任认定机制,来确定当人工智能发生故障或造成伤害时谁应该承担责任,以扫除企业担忧。
美国强调监管的科学性和灵活性,坚持监管的前提是鼓励人工智能的创新和发展,给行业更大的发展空间。2020年1月,美国联邦政府发布了《人工智能应用的监管指南》,这是美国发布的首个人工智能监管指南,其意在为联邦政府对人工智能发展应用采取监管和非监管措施提供指引,要求联邦政府在对人工智能技术和相关产业采取监管和非监管措施时,应以减少人工智能技术应用的障碍和促进技术创新为目标。2023年1月美国众议院推动国会支持监管人工智能技术。2023年3月,美国白宫发布2024年预算草案,支持人工智能和量子计算研发。
(二)国际人工智能治理特点之二:为技术创新与发展提供“安全港”
欧盟和美国都越来越重视保障和促进人工智能技术创新与发展。
美国联邦政府2020年出台的《人工智能应用的监管指南》中,不仅侧重维护美国核心价值,而且更加强调对人工智能创新与发展的促进,避免一刀切式的过度干预。其优先考虑不通过政策手段阻碍人工智能技术和产业发展,降低创新门槛和成本,它高度重视为人工智能应用创建“安全港”、监管豁免等:一是允许为特定人工智能应用程序提供安全港的试点计划;二是采取成本效益分析,在对人工智能进行监管之前,充分考虑人工智能发展应用的社会成本、益处、影响等,以权衡人工智能活动的利弊并衡量风险大小。
欧盟在《人工智能法案》中提出监管沙盒机制,即建立一个受控的环境,以在有限时间内测试创新性技术,数字创新中心提供检测和实验设施,以帮助创新型公司、中小型企业和初创企业在遵守法规的同时继续创新,这有助于在不影响创新发展的同时,提高人工智能的信任。
(三)国际人工智能治理特点之三:治理模式更加市场化
欧盟和美国都主张采用多元主体参与、协同共治的模式,人工智能治理从政府主导向“政府+市场”主导转型。在过去几年,政府是发布人工智能治理规则的主体,企业技术创新和科学家的研究是被动的治理对象。但是,最新发展趋势显示,企业逐渐从被动接受治理规则转向主动参与制定规则。企业成为越来越重要的治理主体,比如谷歌发布了一个数据集以助力检测合成声音。Meta、PartnershipAI与其他组织发起了“深度造假”视频检测竞赛。电气和电子工程师协会(IEEE)商业委员会在2020年第一季度发布第一份题为《对企业使用人工智能的呼吁》的倡议,进一步强调企业在人工智能治理中的主体作用。美国持续推动企业自愿标准和框架,比如,美国国家标准与技术研究院(NIST)和IEEE的标准制定机构一直在征求意见并起草行为准则和自愿框架的提案,希冀在人工智能领域减轻风险并消除歧视。
二、我国人工智能政策现状与趋势:建立中国特色的体系化方案
我国具有产业规模、数据、基础设施等的优势,互联网产业发展处于前列。随着进入人工智能时代,中美在该领域竞争日趋激烈,国家高度重视人工智能技术的发展,政府陆续发布了一系列政策文件,以促进人工智能产业发展和加强安全治理。
(一)促进发展:对人工智能发展给予更多政策支持,配套发布一系列产业政策文件
2017年7月,国务院公布了《新一代人工智能发展规划》,这是我国发展人工智能的远景规划。该规划明确提出,未来将要对人工智能发展给予更多资金、政策支持,以及国家级的统筹规划。该计划明确提出了2020年和2025年的发展目标,并希望到2030年中国能成为人工智能领域的全球创新中心,在理论、技术及应用等方面处于领先地位。在此之后,我国陆续发布了一系列产业政策文件,包括《促进新一代人工智能产业发展三年行动计划(2018-2020)》《国家新一代人工智能创新发展试验区建设工作指引》《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》等,旨在引导和促进中国人工智能产业的发展。在国家产业政策之下,部分地方也出台人工智能产业促进文件,以《深圳经济特区人工智能产业促进条例》和《上海市促进人工智能产业发展条例》为例,这些地方积极推进人工智能与经济、生活、城市治理等领域深度融合,促进鼓励人工智能创新发展。
(二)重视治理:建立了算法治理的“法治之网”,确定了现阶段算法治理的重点场景
算法是人工智能的核心要素和监管的重要维度之一。2021年,中国开始出台法律文件,加强对算法的监管。根据《关于加强互联网信息服务算法综合治理的指导意见》和《互联网信息服务算法推荐管理规定》等文件,中国将逐步建立算法综合治理体系;针对生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等五类算法,提出了建立内部管理制度、评估验证、公示说明、用户自主管理、算法备案等要求。目前,国家网信办已公布三批完成备案的算法应用。
近年来,随着人工智能合成技术的突破,以ChatGPT为代表的生成式语言大模型的快速发展,人工智能合成技术成为业界关注的焦点和未来主要的战略技术方向。针对生成式人工智能技术与应用,我国迅速出台相关法律法规,比如《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法(征求意见稿)》等,加强针对性治理与监管。
(三)伦理约束:明确科技伦理原则,提出治理要求,加强科技伦理治理
在科技伦理方面,我国在逐步探索人工智能的基本伦理规范。2021年《关于加强科技伦理治理的指导意见》将“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”和“保持公开透明”明确为科技伦理原则,并分别对创新主体、科研人员、科技类社会团体、科技人员在科技伦理治理中的角色进行定义。随后发布的《新一代人工智能伦理规范》明确了人工智能的基本伦理规范,并提出了人工智能应用管理规范、研发规范、供应规范和使用规范等一系列规范。企业应重点关注研发规范与供应规范,如在算法设计、实现与应用等环节,提升透明性、可解释性、可理解性、可靠性和可控性,增强人工智能系统的韧性、自适应性和抗干扰能力。在数据采集和算法开发环节,提升数据质量,考虑差异化诉求,避免可能存在的数据与算法偏见。在提供人工智能产品和服务环节,应充分尊重和帮助弱势群体与特殊群体,根据需要提供相应替代方案。同时,要保障人类拥有充分自主决策权,确保人工智能始终处于人类控制之下。2023年4月,科技部官网发布“关于公开征求对《科技伦理审查办法(试行)》意见的公告”,旨在加强科技伦理审查和监管,促进负责任创新。该办法提到,开展可能带来伦理风险挑战的科技活动以及依据相关规定需要进行科技伦理审查的科技活动等应依照本办法进行科技伦理审查。
三、国内外人工智能治理重要标准洞察
标准是“软法”工具箱中核心组成部分,具有高度的灵活性,能够适应复杂化、动态化的社会现实。在多方共治的新格局下,治理复杂度也呈倍数增加。标准是协同人工智能产业力量,实现多方共治的重要工具。人工智能亟需借助标准优势提高治理效能,明确清晰、适应人工智能发展的安全及治理标准化体系,是高效贯彻国家方针、加速产业发展和充分发挥治理价值的基础。
目前,国内外标准洞察如下:
(一)国际标准洞察
国际标准化组织(ISO)
2017年10月,ISO/IECJTC1成立人工智能的分委员会SC42。它负责人工智能标准化工作,重点围绕数据质量与治理、可信与安全展开研制工作,并被许多国家及地区作为监管参考,用于人工智能安全及治理工作。
ISO/IECSC42WG2已经开展了5259系列人工智能数据质量国际标准,人工智能和数据是鱼和水的关系,数据质量是人工智能发展的生命线,数据安全更是人工智能安全和治理的基础,ISO/IEC5259系列是用于衡量和评估人工智能系统中的机器学习和分析的数据质量标准。其中ISO/IECCD5259-2数据质量度量模型和框架部分由日本牵头制定;ISO/IECDIS5259-3数据质量管理要求和指引部分由德国牵头制定;ISO/IECDIS5259-4数据质量过程框架部分为中国牵头的标准,该标准定义的数据质量过程框架包括数据准备、数据处理、数据评估、数据优化等,标准中也规范了数据质量、数据标注质量的评估方法和指标。
ISO/IECSC42WG3可信工作组在国际上关注度非常高,它负责人工智能中可信、伦理、监管、管理、安全等方面的标准制定工作。该工作组开展的ISO/IEC23894《信息技术人工智能风险管理》国际标准由德国牵头制定。本标准为组织在开发、生产、部署、应用人工智能技术的产品、系统和服务过程中提供针对人工智能的特定风险管理的指南,涉及数据安全、隐私保护、算法特性面临的风险的防护。ISO/IECTR24028《信息技术人工智能人工智能可信概述》由英国牵头制定。本标准从宏观角度提出了人工智能系统可信赖问题,并分析了人工智能系统存在技术脆弱性的影响因素与缓解措施,进一步提高了人工智能系统可信度的方法,如改善人工智能系统的透明度与可控性等。其中ISO/IECTS8200《信息技术人工智能自动化人工智能系统的可控性》由中国牵头编制,本标准旨在确保自动化人工智能系统的可控性,促进人工智能的负责任发展。
国际电信联盟(ITU)
ITU-T关注机器学习与人工智能技术应用中的安全问题,我国企业及组织也积极参与其中。ITU-TSG16Q5/16提出了人工智能视觉模型鲁棒性训练框架,ITU-TSG17Q4/17TR提出基于机器学习的反垃圾邮件技术框架;ITU-TSG17Q15/17TR利用全同态加密技术为机器学习中的安全推理服务和数据聚合提供安全指导,并提出了人工智能技术安全管理导则。
电气与电子工程师协会标准协会(IEEESA)
IEEESA开展了多项人工智能伦理道德研究,发布了多项人工智能伦理标准和研究报告。IEEESA已发布的IEEEP7000系列标准,用于规范人工智能系统道德规范方面的问题。
此外,IEEESA还关注人工智能鲁棒性、人工智能公平性、可解释人工智能、深度学习评估、人工智能责任化等问题,如IEEEP3129《人工智能图像识别服务鲁棒性测试和评估标准》、IEEEP3168《机器学习自然语言处理鲁棒性评估标准》、IEEEP3198《机器学习的公平性评估方法标准》,IEEEP2894《可解释人工智能的体系结构框架指南》,IEEEP2841《深度学习评估过程与框架》,IEEEP2840《责任化人工智能许可标准》等。
(二)国内标准洞察
2020年7月,国家标准委、中央网信办、发展改革委、科技部、工业和信息化部联合印发《国家新一代人工智能标准体系建设指南》,形成标准引领人工智能产业发展的新格局。我国标准化体系建设及工作的开展,也为落实人工智能相关政策文件及法规要求,提供了更贴近产业的实施细则。
全国信息安全标准化技术委员会(TC260)
TC260目前正在研制人工智能自身或基础共性的安全发展标准,国标《信息安全技术机器学习算法安全评估规范》(在研)规定了机器学习算法应用全生命周期的安全要求和证实方法,同时也对应《互联网信息服务算法推荐管理规定》中生成合成、检索过滤、排序精选、个性化推荐、调度决策五大类算法服务提出了规范要求。该国标不仅适用于对机器学习算法应用的安全评估,也供机器学习算法应用提供者开展自我评估。
国标《信息安全技术人工智能计算平台安全框架》(在研),定义人工智能计算平台要达成的安全功能效果,一方面保障平台自身安全;另一方面,围绕上层应用面临的多场景共性问题,它保障人工智能模型与数据等核心资产安全,减少应用方的重复投入。
全国信息技术标准化技术委员会(TC28)
2018年1月,TC28成立了“人工智能标准化总体组”。2020年3月成立了人工智能分技术委员会(SAC/TC28/SC42),国际对口ISO/IECJTC1/SC42,它负责人工智能基础、技术、风险管理、可信赖、治理、产品及应用等人工智能领域国家标准制与修订工作。目前,它已发布《人工智能标准化白皮书(2018版)》《人工智能标准化白皮书(2021版)》《国家新一代人工智能标准体系建设指南》与《人工智能伦理风险分析报告》。
中国通信标准化协会(CCSA)
CCSA作为行业标准组织,在可信人工智能、人工智能技术、人工智能数据,以及人工智能垂直场景等领域开展相关安全治理及测评标准,同时也开展了一系列如数字水印、人工智能合成内容检测等治理技术相关的标准规范。
四、我国人工智能治理政策与标准建议
政策与标准都是推动人工智能治理的不可或缺的有效制度,政策指明前进方向,标准实现具体细则,两者支撑协同,共同推动我国人工智能健康发展。
(一)从垂直控制为主的“硬法”模式向结合行业自律的“软法”“硬法”并行的多方协同治理模式转变
为了全面建成人工智能治理体系,标准化是不可或缺的关键环节。将标准作为准则和实践之间的桥梁,针对不同应用场景做出对应的规定,深化标准对技术的规范作用,通过树立行业标杆,进一步补全顶层原则到行业落地的细则指引,进而激发行业自主创新能力,普及先进技术,帮助降低成本,提高整体行业水位。
同时,加速打造多方协同的治理模式,促进政产学研用治理深度融合,包括构建“政产学研用”协同的治理机制、建设人工智能治理创新示范区、建立公共技术服务或检验检测平台等手段。
(二)综合场景、风险等因素建设我国人工智能分类分级治理制度
应基于我国人工智能安全及伦理中不同场景的风险特点,加快人工智能应用分类分级安全准则、保护要求等方面的制度建设。重点围绕规范性文件相对完善且风险程度较高的人工智能细分领域攻关专项治理技术,如,自动驾驶、智能医学、智慧金融、智能媒体/舆情等,对于风险等级较低的场景类型给予更多技术引导,避免过度治理导致发展受限。
从风险角度来看,前沿新技术的应用,往往其安全和治理的需求也在不断变化,首先需要认清“已知”的风险及问题,汇聚技术、产业力量着重解决,如,在人工智能场景中面对现实场景的鲁棒性问题仍未解决、偏见和歧视进一步被强化、透明可解释性缺乏统一判别标准、外部攻击手段和技术提升导致的威胁持续加剧等;对于“未知”风险,不能以“放弃机会来规避风险”,而是需要产业、各界以共治的方式共同面对,小步快走,迭代试错,在小范围分解问题,并尝试提出社会利益最大的解决方案。
(三)鼓励持续发展治理技术,在监管框架下合理分配主体责任,寻求发展与治理的平衡模式
近年来,联邦学习、对抗测试、形式化验证、公平性评估等技术工具不断得到关注与研发,很大程度上提高了行业整体人工智能安全与治理水平,建议继续给与科技企业进行技术治理的空间,进一步提升治理技术水平,例如数据匿名化机制等以激发更多数据价值,数字水印技术来保障人工智能生成内容的可溯源防篡改能力。以发展促治理,同时也以治理促发展,积极探索适配创新科技高速发展的合理模式,避免抑制人工智能的发展与应用潜力。
随着生成式人工智能的发展和普及,未来数据来源的合法合规性将成为治理重点,例如知识产权、生成式内容的真实准确性等问题也会给行业带来全新的挑战,考虑到生成式人工智能场景中数据来源的多样性、具有多方责任主体等特征,不合理的主体责任分配将带来的治理成本的剧增,例如,由技术支持者承担内容安全责任,在实践中很难操作落地,内容平台进行生成合成识别的难度及成本远高于技术或服务提供者进行水印标识。因此建议,结合行业实际情况,在监管框架下合理区分各方的主体责任,降低治理成本和发展约束,给与行业更多的创新空间。
(四)加强国际规则及标准的制定,提高中国人工智能安全与治理方案的国际话语权
我国人工智能产业具有数据与产业规模的巨大优势,同时也具备众多先进核心原则与顶层规范的先发优势,在如今人工智能新时代的拐点中,我们应进一步发挥优势,加大人工智能治理与安全国际规则及标准制定的权重,尤其是鼓励产业一线企业、组织的参与与贡献,从而提升中国方案在国际上的竞争力和话语权。
(本文刊登于《中国信息安全》杂志2023年第5期)
声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系anquanneican@163.com。