博舍

《人工智能标准化白皮书(2018版)》发布 人工智能标准化白皮书原则

《人工智能标准化白皮书(2018版)》发布

来源:光明网

概要:1月18日下午,2018人工智能标准化论坛在京召开,本次论坛发布了《人工智能标准化白皮书(2018版)》。

1月18日下午,2018人工智能标准化论坛在京召开,本次论坛发布了《人工智能标准化白皮书(2018版)》。

白皮书通过梳理人工智能技术、应用和产业演进情况,分析人工智能的技术热点、行业动态和未来趋势,从支撑人工智能产业整体发展的角度出发,研究制定了能够适应和引导人工智能产业发展的标准体系,进而提出近期急需研制的基础和关键标准项目,呼吁社会各界共同加强人工智能领域的技术研究、产业投入、标准建设与服务应用,共同推动人工智能及其产业发展。

国家标准化管理委员会工业二部主任戴红在论坛致辞中指出,标准化工作是人工智能发展的基础和前提,对于加速人工智能的发展具有重要作用。国家标准委高度重视人工智能的标准化工作,前期指导相关企事业单位对人工智能标准体系框架进行了研究;未来,希望各参会代表深入开展交流、研讨,围绕人工智能标准化的需求,不断完善人工智能标准体系;同时,充分发挥我国资源和市场优势,深入参与国际标准化活动,力争取得国际标准突破,支撑国际人工智能产业发展。

工业和信息化部科技司副司长王卫明对《促进新一代人工智能产业发展三年行动计划(2018-2020年)》进行解读,介绍了行动计划的编制背景、总体思路、主要内容和保障措施。他指出,行动计划以信息技术和制造技术深度融合为主线,聚焦培育智能产品、突破核心基础、深化发展智能制造等四大任务,标准化工作作为重要保障措施,对支撑产业发展具有重要作用。下一步,工信部将以三年行动计划为纲,深入落实,营造良好产业发展环境。

中国电子技术标准化研究院院长赵波做了题为《扎实做好标准化工作,推动人工智能创新发展》的主题报告,介绍了人工智能技术和产业生态、人工智能标准化工作及下一步工作计划。赵波院长从人工智能发展历史、新一代人工智能发展驱动力、产业生态及发展趋势等方面进行了分析,阐述了标准化的重要作用。赵波院长根据国内外人工智能标准化工作基础,结合现阶段标准化需求,介绍人工智能标准化体系框架,并结合新一代人工智能标准化工作面临的困难和挑战,给出下一步标准化发展措施建议。

北京航空航天大学教授吴文俊、华为云副总裁宋哲炫、北京商汤科技开发有限公司研发总监钱晨、深圳市腾讯计算机系统有限公司觅影应用中心主任吴明柱、科大讯飞股份有限公司副总裁严峻分别针对《新一代人工智能的展望》《华为AI实践与标准探索》《计算机视觉技术与应用》《腾讯医学人工智能的实践与思考》《AI赋能把握标准新机遇共创共享智未来》等议题与大家进行了深入探讨。

本次论坛由中国电子技术标准化研究院主办,华为技术有限公司、北京商汤科技开发有限公司、深圳市腾讯计算机系统有限公司、科大讯飞股份有限公司共同协办。论坛的召开,将进一步深化人工智能产业标准化工作的交流与合作,凝聚各方智慧,携手推动人工智能标准化建设,支撑我国人工智能产业有序、规范发展。

当天上午,国家标准化管理委员会召开国家人工智能标准化总体组、专家咨询组成立大会,统筹规划和协调管理我国人工智能标准化工作,同期国家人工智能标准化总体组第一次工作会议召开,会上介绍了《国家人工智能标准化总体组工作章程》,并讨论了下一步工作计划。

链接:https://pan.baidu.com/s/1kWuhQxp密码:rmar

未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。由互联网进化论作者,计算机博士刘锋与中国科学院虚拟经济与数据科学研究中心石勇、刘颖教授创建。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

人工智能伦理问题的现状分析与对策

0分享至

摘要:

人工智能(AI)是第四次产业革命的核心,但也为伦理道德规范和社会治理带来了挑战。文章在阐释当前人工智能伦理风险的基础上,分析了当前对人工智能伦理准则、治理原则和治理进路的一些共识,提出了以“共建共治共享”为指导理论,逐渐建设形成包含教育改革、伦理规范、技术支撑、法律规制、国际合作在内的多维度伦理治理体系等对策建议。

人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。

2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。

2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。

2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。

1当前人工智能伦理问题

伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。

人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。

信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。

然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。

计算机伦理学创始人Moore将伦理智能体分为4类:

1.伦理影响智能体(对社会和环境产生伦理影响);

2.隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);

3.显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);

4.完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。

当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。

近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。

当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。

例如:

1.人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。

2.人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。

3.人工智能的滥用可能威胁公民隐私权、个人信息权。

4.深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。

5.信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。

6.人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。

7.算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。

8.人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。

9.由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。

10.人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……

人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。

1.人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。

2.人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。

关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。

2人工智能伦理准则、治理原则及进路

当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。

伦理准则

近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。

近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理3个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。

治理原则

美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。

习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。

近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。

一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。

另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。

治理进路

在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。

“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。

“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。

我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。

3我国人工智能伦理治理对策

人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。

教育改革

教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。

为更好地支撑人工智能发展和治理,应从4个方面进行完善:

1.普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;

2.在科技工作者中加强人工智能伦理教育和职业伦理培训;

3.为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;

4.研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。

伦理规范

我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。

当前有5项重点工作可以开展:

1.针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。

2.在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。

3.推动科研机构和企业对人工智能伦理风险的认知和实践。

4.充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。

5.推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。

技术支撑

通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。

此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。

法律规制

法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。

国际合作

当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。

我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。

作者:张兆翔1、张吉豫2、谭铁牛1*,3

1中国科学院自动化研究所

2中国人民大学法学院

3中国科学院院士

基金项目:中国科学院学部科技伦理研究项目(XBKJLL2018001)

本文转载自微信公众号中国科学院院刊,原载于《中国科学院院刊》2021年11期

产业|工业化|数字化|人才|创新创业|颠覆性技术|科技指标|科技政策|前沿技术|知识产权|智库|

获取方法如下:

其他系列将陆续呈现,多多关注哦!

投稿邮箱:nais-research@cnais.org.cn

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

《国家新一代人工智能标准体系建设指南》解读

2020年7月27日,五部门联合印发《国家新一代人工智能标准体系建设指南》,加强人工智能领域标准化顶层设计,推动人工智能产业技术研发和标准制定,促进产业健康可持续发展。《信息技术与标准化》特邀国家人工智能标准化总体组组长、中国电子技术标准化研究院院长赵波进行解读,以飨读者。

人工智能作为一项引领未来的战略技术,世界发达国家和地区纷纷围绕人工智能出台规划和政策。其中:美国建议通过标准和基准来衡量和评估人工智能技术;法国高度重视人工智能领域的工业标准体系建设;欧盟委员会建议制定一套新的人工智能道德准则,以解决公平、安全和透明等问题。我国为了提升人工智能核心竞争力,对标准化工作提出了顶层要求。国务院于2017年印发《新一代人工智能发展规划》(国发[2017]35号),指出要加强人工智能标准体系研究;工信部于2017年印发《促进新一代人工智能产业发展三年行动计划(2018-2020年)》(工信部科[2017]315号),明确要建设人工智能产业标准规范体系。

为加强人工智能领域标准化顶层设计,最大发挥标准价值,有效指导新一代人工智能建设,2020年7月,国家标准委、中央网信办、国家发展改革委、科技部、工信部联合印发《国家新一代人工智能标准体系建设指南》(以下简称《指南》)。《指南》的发布将推动人工智能产业技术研发和标准制定,促进我国人工智能产业健康可持续发展。

《指南》编制过程

《指南》依托国家人工智能标准化总体组,由中国电子技术标准化研究院牵头,汇聚国内主流的人工智能领域产学研用单位,成立了体系建设指南专题组组织编制。《指南》编制过程中,一坚持指导性原则,为未来两年国家标准立项和综合标准化专项的设立提供依据,指导人工智能标准的研制,引导企业参与并提出重点标准;二坚持可用性原则,在指导标准研制的同时,注重标准验证和落地应用,构建满足产业发展需求、先进适用的人工智能标准体系;三坚持阶段性原则,关注当前我国人工智能发展的实际需求,综合考虑人工智能技术发展和应用水平,满足未来两年我国人工智能标准体系建设的需要。

《指南》在编制过程中,充分征求了部门、行业、专家的意见。国家标准委委托有关单位多次组织征集行业意见、专家论证会,向中央网信办、国家发展改革委、科技部、工信部等部门征求意见,并组织有关单位对意见进行逐条研究分析,保障了《指南》内容的合理性、全面性和可操作性。

3.1《指南》内容组织

《指南》编制遵循指导性、可用性、阶段性原则,旨在对人工智能标准化工作进行顶层设计,构建了基础共性、支撑技术与产品、基础软硬件平台、关键通用技术、关键领域技术、产品与服务、行业应用、安全/伦理八部分组成的国家新一代人工智能标准体系框架。

《指南》共三部分,包括总体要求、建设思路和建设内容。第一部分介绍了《指南》编制的总体要求,统领全文。第二部分介绍了《指南》的建设思路,给出了人工智能标准体系结构和框架。第三部分详细阐述了《指南》八个方面的建设内容。附表给出了人工智能标准研制方向明细。

3.2《指南》重点方向

《指南》通过梳理人工智能政策、技术及产业演进情况、标准化现状,分析人工智能的技术热点、行业动态和未来趋势,力求制定能够适应和引导人工智能技术产业发展的标准体系。同时,考虑到人工智能跨领域,涉及多种技术融合,人工智能标准之间存在着相互依存、相互制约的内在联系,标准化工作需要统筹协调,《指南》从支撑人工智能产业整体发展的角度出发,统筹考虑人工智能技术产业发展和标准化工作情况,提出适合现阶段的人工智能标准体系,并提出各部分标准建设重点,以指导标准的制修订工作。

一基础共性标准。人工智能是一个复杂的系统工程,涉及到多方面的基础性问题,规范其所涉及的这些基础性问题,是人工智能科学全面应用的前提。该部分重点开展人工智能术语、参考架构、通用性测试评估等标准研制工作,对标准体系结构中其它部分起基础支撑作用。

二支撑技术与产品标准。人工智能基于物联网产生并存储于云平台的海量数据资源,通过大数据分析技术,利用计算存储资源池和智能算法为各行业应用提供智能化服务。该部分重点围绕支撑人工智能发展,与人工智能强相关的智能运算资源应用服务领域的标准化工作。

三基础软硬件平台标准。作为人工智能落地至关重要的基础软硬件设施,智能芯片、系统软件、开发框架提供了人工智能应用开发所需要的工具集合,实现软硬一体思路下算法、芯片、软件、系统的协同优化。该部分重点围绕人工智能芯片、硬件基础设施、开发框架的算力及功能等需求,开展标准研制工作。

四关键通用技术标准。机器学习、知识图谱、类脑智能计算、量子智能计算、模式识别作为人工智能的关键性通用技术,是人工智能在关键领域应用技术的基础。以机器学习为例,其在智能语音识别、自然语言处理、目标检测、视频分类等领域取得了一定成果。该部分主要针对关键通用技术的特点,围绕模型、系统、性能评价等开展标准研制工作。

五关键领域技术标准。自然语言处理、智能语音、计算机视觉、生物特征识别、虚拟现实/增强现实、人机交互等关键领域技术是目前人工智能应用于实体经济的重要驱动力。该部分主要开展语言信息提取、文本处理、语义处理、语音识别与处理、图像识别合成、图像识别与处理、人体生理特征或行为特征识别、虚拟现实/增强现实、智能感知、多模态交互等标准研制工作。

六产品与服务标准。针对人工智能技术形成的智能化产品及服务模式,智能机器人、智能运载工具、智能终端、智能服务将人工智能领域技术成果集成化、产品化、服务化。该部分主要重点围绕以人工智能产品和服务质量水平,开展服务机器人、工业机器人、行驶环境融合感知、移动智能终端、智能服务等相关标准研制工作。

七行业应用标准。位于人工智能标准体系结构的最顶层,《指南》中所指的行业应用是依据国务院印发的《新一代人工智能发展规划》,结合当前人工智能应用发展态势而确定的人工智能标准化重点行业应用领域。该部分主要面向行业中与人工智能强相关的具体需求,开展标准化工作,支撑人工智能在行业应用的发展。

八安全/伦理标准。位于人工智能标准体系结构的最右侧,贯穿于其他部分,包括人工智能领域基础,数据、算法和模型,技术和系统,管理和服务,安全测试评估,产品和应用等信息安全相关标准,以及涉及传统道德和法律秩序的伦理标准。支撑建立人工智能合规体系,保障人工智能产业健康有序发展。

《指南》实施考虑要点

一避免多领域交叉冲突。人工智能在各行业的应用落地涉及大数据、云计算等多种技术,《指南》与大数据、云计算等支撑技术,机器人、智能运载工具等产品,智能制造、智慧城市、智能政务等行业的相关标准体系存在交集,但非包含或覆盖关系。《指南》编制过程中充分调研了《智能制造标准体系建设指南》《国家机器人标准体系建设指南》《国家车联网产业标准体系建设指南(智能网联汽车)》等规划,《指南》涉及的交集皆指与人工智能强相关的部分或环节,为避免矛盾,相关内容直接参考已有规划。

二需建立动态更新完善机制。随着人工智能的发展,人工智能在各个垂直领域的应用落地新模式将不断涌现,“人工智能+”将全面开花,新一代人工智能标准体系也将进一步更新完善。以本《指南》标准体系为起点,持续关注我国人工智能在转型升级中的实际需求,综合考虑因科技发展而出现的新技术和新应用,通过建立动态更新完善机制,以满足我国人工智能标准体系建设的需要。

三正确把握与技术和产业发展的关系。需注意《指南》中标准化建设重点与人工智能发展进程中标准需求的不定性、未知性、突发性存在差距。应注意在人工智能技术和产业发展进程中,市场环境、产业需求变幻无穷,其标准需求也可能瞬息万变,本《指南》中提及的标准建设重点仅做引导、支撑产业发展用途,不代表人工智能技术、产业发展的趋势或目标。

结语

《指南》是国家人工智能标准化总体组在国家标准委等五部门指导下取得的重要成果,对我国人工智能标准化工作具有重要的指导意义。中国电子技术标准化研究院作为国家人工智能标准化总体组组长单位,将按照《指南》的要求和部署,积极推进人工智能重点标准研制,建立标准验证与测评体系,加强标准应用推广,支撑人工智能行业健康有序发展。

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇