五部门关于印发《国家新一代人工智能标准体系建设指南》的通知
标 题:五部门关于印发《国家新一代人工智能标准体系建设指南》的通知发文机关:国家标准化管理委员会中央网信办国家发展改革委科技部工业和信息化部发文字号:国标委联〔2020〕35号来 源:标准委网站主题分类:科技、教育科技公文种类:通知成文日期:2020年07月27日标 题:五部门关于印发《国家新一代人工智能标准体系建设指南》的通知发文机关:国家标准化管理委员会中央网信办国家发展改革委科技部工业和信息化部发文字号:国标委联〔2020〕35号来 源:标准委网站主题分类:科技、教育科技公文种类:通知成文日期:2020年07月27日国家标准化管理委员会中央网信办国家发展改革委科技部工业和信息化部关于印发《国家新一代人工智能标准体系建设指南》的通知国标委联〔2020〕35号
各省、自治区、直辖市及新疆生产建设兵团市场监管局(厅、委)、网信办、发展改革委、科技厅(委、局)、工业和信息化主管部门,有关全国专业标准化技术委员会:
为加强人工智能领域标准化顶层设计,推动人工智能产业技术研发和标准制定,促进产业健康可持续发展,现将《国家新一代人工智能标准体系建设指南》印发给你们,请认真贯彻执行。
国家标准化管理委员会中央网信办国家发展改革委科技部工业和信息化部2020年7月27日
(此件公开发布)
附件:国家新一代人工智能标准体系建设指南.pdf
国家标准化管理委员会中央网信办国家发展改革委科技部工业和信息化部关于印发《国家新一代人工智能标准体系建设指南》的通知国标委联〔2020〕35号
各省、自治区、直辖市及新疆生产建设兵团市场监管局(厅、委)、网信办、发展改革委、科技厅(委、局)、工业和信息化主管部门,有关全国专业标准化技术委员会:
为加强人工智能领域标准化顶层设计,推动人工智能产业技术研发和标准制定,促进产业健康可持续发展,现将《国家新一代人工智能标准体系建设指南》印发给你们,请认真贯彻执行。
国家标准化管理委员会中央网信办国家发展改革委科技部工业和信息化部2020年7月27日
(此件公开发布)
附件:国家新一代人工智能标准体系建设指南.pdf
扫一扫在手机打开当前页国外人工智能安全相关法律法规情况
自2017年以来,美国、欧盟、德国、加拿大、日本、新加坡等国家或地区已陆续发布人工智能发展和治理的法律法规准则,以时间轴为线索梳理这些法案可以发现,各国和地区开展的立法探索呈现出从宏观性准则和战略逐渐细化至诸如自动驾驶治理、数据安全等具体层面的趋势,全球范围内关于人工智能安全的治理逐步深化和具体。
01
美国:遵循立法先行的传统
美国为确保自身在人工智能领域的全球领导地位,近几年在行政条令和立法层面进行了诸多尝试,虽然最终仅有部分法案审议成为法律,但这些相关法案的提出与辩论过程对于后续美国制定并实施成熟的人工智能安全治理规制也具有重要的参考借鉴。这体现出美国在人工智能领域依然贯彻了立法先行的思路,科学完备的法律体系建设将有利于为美国布局安全可控的人工智能提供坚实的制度保障。具体法案名称及主要内容如下。
1
《2019年国防授权法案》
时间:2019年
主要内容:依据此授权法,美国成立了国家人工智能安全委员会(NationalSecurityCommissiononArtificialIntelligence),研究人工智能和机器学习方面的进展,以及它们在国家安全和军事方面的潜在应用。此外,依据《2019年国防授权法案》,美国国防部创建了联合人工智能中心(JAIC),作为开发和执行总体人工智能战略的责任机构。
2
《自动程序披露和问责法》
时间:2018年6月25日首次提出;2019年7月16日再次提出
主要内容:法案要求联邦贸易委员会制定法规,强制数字平台公开披露其使用“旨在在线复制人类活动的自动化软件程序或过程”的情况。法案将定义“自动软件程序”的任务交给了联邦贸易委员会(FederalTradeCommission,FTC),这为该法案留下了广泛的解释空间,超出了法案本身旨在限制自动程序的目的。
3
《算法问责法2019(草案)》
时间:2019年10月
主要内容:草案旨在防止算法自动化决策造成对消费者的歧视,要求大型互联网平台企业评估并消除其自动决策算法给消费者信息隐私和安全带来的风险,以及因种族、肤色、宗教、政治信仰、性别或其它方面差异带来的算法歧视与偏见。法案赋予FTC执行和监管的权力,要求企业研究并修复存在缺陷的、会导致人们产生不准确、不公平、有偏见或歧视性决策的算法。该法案是美国国会第一次认真尝试监管人工智能,也是美国第一次立法尝试在总体上监管人工智能系统,而不是监管自动驾驶汽车等特定技术领域。
4
《保持美国在人工智能领域的
领导地位》
时间:2019年2月11日
主要内容:时任总统特朗普签署的第13859号行政令,指出美国在人工智能领域的持续领导对于维护美国经济和国家安全并以符合美国价值观、政策和优先事项的方式塑造人工智能的全球演变至关重要。旨在刺激美国人工智能的发展和监管,并通过指示联邦机构优先投资人工智能领域的研发,增强美国国家和经济安全,巩固美国的全球地位。法案中列出了五个关键领域:加大人工智能研发投入、开放人工智能资源、设定人工智能治理标准、培养人工智能劳动力,以及国际协作和保护美国人工智能优势。人工智能项目由国家科学技术委员会(NSTC)人工智能特别委员会(SelectCommitteeonArtificialIntelligence)协调。这份行政令的出台是美国政府推动人工智能发展的一个里程碑事件,对于美国人工智能的研发和应用具有重要引领作用。
5
《2020“国家人工智能计划”法案》
时间:2020年3月
主要内容:该法案吸收了包括“美国人工智能计划”在内的多项联邦人工智能政策与措施,后被打包纳入《2021财年国防授权法》并于2021年1月生效。法案要求美国制定并实施“国家人工智能计划”,以解决美国人工智能发展面临的一系列问题。依据此法案,美国白宫科学技术政策办公室(OSTP)宣布成立国家人工智能计划办公室和国家人工智能咨询委员会,并建立或指定一个机构间委员会,以更健全完备的组织机构推动“国家人工智能计划”实施。
该法案显示了两党对美国政府在AI领域长期努力的大力支持,并将美国政府现有的许多AI政策和举措编入法律并加以扩展。例如,将美国AI计划确立的5项关键任务纳入法律,扩大2018年成立的人工智能专责委员会并使其成为常设机构,承认2020年成立的国家AI研究所的合法地位,规定要对2019年发布的国家AI研发战略规划进行定期更新,将白宫2019年指导的关键AI技术标准活动扩展至包括AI风险评估框架等。
6
《生成人工智能网络安全法案》
时间:2020年5月
主要内容:法案旨在“确保美国制定并实施保护美国价值观和领导力的人工智能战略。识别供应链的风险并制定降低这些风险的计划。”
该法案要求美国商务部和联邦贸易委员会明确人工智能在美国应用的优势和障碍;调查其他国家的人工智能战略,并与美国进行比较;评估供应链风险以及如何解决这些风险。此外,法案要求这些机构向国会报告结果,并制定国家人工智能战略的建议。
7
《数据问责和透明度法2020》
时间:2020年6月
主要内容:法案将算法自动化决策纳入监管,提出消费者应当有权质疑收集数据的理由并要求人工对算法自动化决策进行审查和解释。
8
《2020年政府法令》
(众议院第2575号决议)
时间:2020年9月
主要内容:法案旨在通过在总务管理局(GSA)内部建立“优秀人工智能中心”,并要求管理和预算办公室(OMB)向联邦机构发布一份关于人工智能治理方法的备忘录,以促进联邦政府助力开发人工智能创新应用。同时还要求科学技术政策办公室就人工智能的安全应用和最佳实践向各联邦机构发布指导。
9
《人工智能能力与透明度法案》
时间:2021年5月
主要内容:法案致力于落实人工智能国家安全委员会(NSCAI)最终报告给出的建议,通过改进人才招募制度,使各机构能够更快地采用新的AI技术,增强政府使用人工智能的能力和透明度。该法案赋予了国防部(DOD)、能源部(DOE)、情报共同体(IC)和联邦调查局(FBI)新的权力和资源,以确保联邦政府更好、更安全地利用快速发展的AI技术。
10
《军用人工智能法案》
时间:2021年5月
主要内容:法案建立在《人工智能倡议法案》(AI-IA)、《武装部队数字优势法案》等基础上,旨在实施NSCAI提出的与军方技术人员有关的其他建议,改善军队各级人员的人工智能教育与培训计划,使其能更好地使用人工智能。具体来说,该法案改善了针对初级军官和国防部领导的AI和新兴技术主题教育和培训,以便军事部门更好的利用AI。
11
《美国数据隐私和保护法案(草案)》
时间:2022年6月
主要内容:尽管法案还未正式颁布,但该法案的草案是第一个获得两党和两院支持的美国综合性联邦隐私法案(草案);旨在联邦层面建立消费者隐私数据保护法律框架,为美国消费者提供了隐私权保护和有效的补救措施。
该草案对“算法”的定义是“来源于机器学习与人工智能技术的、以代替人工或为人提供帮助为目的的、依据数据处理结果做出决策的计算处理程式”。草案规范此类处理技术的应用,它反映出数字时代美国数据隐私保护的价值理念,在制度设计上既体现了强化个人数据权利保护的国际趋势,又有利于数据价值释放的内容,如“选择退出”机制、有限的私人诉讼权、数据处理企业的忠诚义务等。
12
《人工智能权利法案蓝图》
时间:2022年10月
主要内容:美国白宫发布,表达了拜登政府对使用人工智能技术的未来愿景,希望能刺激企业更负责任地打造和部署人工智能,并对基于人工智能的监控进行限制。
尽管《人工智能权利法案蓝图》只是一个不带有强制性的行动准则,但它的重要性也不可低估。该白皮书提出了开发或部署人工智能的公司需要自愿遵循的准则,以保障人们的信息免受误用或滥用。在没有颁布具体法律之前,对于这些准则的遵守将是选择性的。
该文件旨在通过“赋予美国各地的个人、公司和政策制定者权力,并满足拜登总统的呼吁,让大型科技公司承担责任”,以“设计、使用和部署自动化系统的五项原则,从而在人工智能时代保护美国公众”。这五项原则为:(1)安全有效的系统;(2)算法歧视保护;(3)数据隐私;(4)通知和解释;(5)人工替代、考虑和回退。该文件的出台将从科技、经济以及军事等方面为美国人工智能发展提供指引。
02
欧盟:创新与规范之间艰难
平衡
人工智能具有模糊性、复杂性、自主性和无法预测性等特征,可能给社会带来诸多风险和问题。为确保人工智能的发展尊重人权并且安全信任,2021年4月21日,欧盟发布了《人工智能法案》(ArtificialIntelligenceAct)的第一稿,探索为人工智能治理提供“硬法”支持,旨在促进创新,并为设定一个全球标准,人工智能技术被广泛应用于从自动驾驶汽车、聊天机器人到目前中美自动化工厂等各个领域。
2023年3月,该法案的草案已经提交欧盟议会一读,如获通过,将成为具有约束力、可在欧盟成员国内直接适用的法律,而且对于国际人工智能安全相关规则的制定也有十分重要的参考价值,因此接下来着重单列介绍这份《人工智能法案》的内容。
1
法规性质
欧盟内部统一法律框架、全球范围内首部系统化规制人工智能的法律。标志着人工智能治理从原则性约束的“软法”向更具实质性监管的“硬法”加速推进。
2
治理目标
保护人权、宣扬欧盟价值观、保护AI商品服务的自由流动。
3
规制范围
在欧盟投放市场、投入服务和使用的AI系统(含欧盟外开发和使用,但输出数据在欧盟使用的情形),但为军事目的研发的情形除外。
4
治理机制
统筹主管:新设欧盟人工智能委员会(EuropeanArtificialIntelligenceBoard)。
公告监管:成员国指定主管机构负责执行,定期向委员会报告。
专项负责:提议为非高风险的人工智能系统制定自发性行为准则,建立监管沙盒(regulatorysandbox)以促进创新。
5
风险等级
禁止:被认为对人们的安全、生计和权利有明显威胁的人工智能系统将被禁止。包括:以个人无法认知的方式,采用潜意识教化技术严重扭曲个人行为或者利用特定群体的年龄、残障或者特定社会或经济处境等弱点,其目的旨在或者效果为严重扭曲与该群体相关的人的行为,业已或可能对个人生理或心理造成伤害的人工智能系统,以及根据自然人的社会行为或者已知或预测的个性特征或人格特征,在一定时期内对自然人进行评估或分类,但其所产生的社会评分可能造成自然人或其整个群体在社会环境中受到不利或不适宜待遇的人工智能系统。
高风险:可能对个人健康、安全及基本权利产生重大有害影响的人工智能。草案虽然未作明确界定,但给出了高风险人工智能系统的判断标准。
其他风险:除上述以外的AI,如合规但存在一定风险的情形。
其他欧盟人工智能安全相关法律法规介绍如下:
1
《通用数据保护条例》
时间:2016年通过,2018年生效
主要内容:欧盟为解决互联网时代用户数据的收集、使用问题而制定。将取代欧盟于1995年通过的《数据保护指令》(DataProtectionDirective),适应云计算、互联网、大数据。该条例旨在限制互联网及大数据企业对个人信息和敏感数据的处理,从而保护数据主体权利。同时,GDPR相比其前身——1995年《数据保护指令》,对欧盟各成员国具有直接适用的效力,无需成员国再自行转化为国内法。
2
《可信赖人工智能伦理准则》
时间:2019年
主要内容:准则包括七项要素:人的能动性和监督、技术稳健性和安全性、隐私和数据管理、透明度、多样性和非歧视性以及公平性、社会及环境福祉、问责制。
3
《数据治理法案》
时间:2022年6月生效
主要内容:法案于2020年11月被首次提出,是《欧洲数据战略》框架下第一份立法草案。总体而言,《数据治理法案》强调规则创新,鼓励数据共享、提高数据利用效率,进而让数据资源的流转利用服务更高的公共政策目标。一是建立公共部门持有数据的再利用机制。二是建立框架以促进数据中介机构的发展。三是对于数据利他行为做出规范化的引导。
此外,《数据治理法案》第六章规定成立欧洲数据创新委员会,就包括关于数据共享服务提供商、跨行业数据共享、数据再利用等提供咨询意见。
03
其他主要国家:结合本国战略
各有侧重
除美国、欧盟外,日本、新加坡、加拿大和德国走在了人工智能安全领域立法的前沿,且根据各国科技基础能力与战略发展需求形成了各有侧重的立法方向。如日本一向重视前沿科技的官产学合作并积累了丰富经验,因此在面临人工智能安全带来的法律问题,选择从个人信息和数据保护入手,通过明确数据主体的权责划分,推动政府和企业形成协同研发网络,构建有利于人工智能安全发展的生态系统。德国进行立法活动时则是注重依托工业资源优势,试图打造人工智能融合“工业4.0”的德国特色。因而其人工智能安全相关立法十分关注技术对经济和生活的影响,重点关注自动驾驶、智能医疗这些紧扣改善人类经济和生活的主题。新加坡和加拿大则是重点关注人工智能这一战略性技术为经济、社会赋能的巨大价值,从数据、安全监管入手开展相关立法,以推动人工智能成为本国数字化转型浪潮中的核心驱动力量。其他主要国家人工智能安全相关法律法规主要内容如下:
1
《个人数据保护法(修正案)》
国家:新加坡
时间:2020年11月通过
主要内容:该修正案为新加坡的个人数据保护提供了基本准则,补充特定行业的立法和监管框架,旨在保护数据主体的个人数据并且规范数据处理者的数据处理行为。
2
《自动驾驶法案》
国家:德国
时间:2021年7月
主要内容:法案旨在为无人驾驶技术的落地运营提供法律依据和监管框架。法案最大的一个亮点是为具备L4级自动驾驶系统的汽车在公路指定区域实现常规运营提供合法性基础,并规定了相应的技术要求、行驶条件和数据处理规则。德国由此成为全球首个允许无人驾驶车辆参与日常交通并应用在全国范围的国家。
该法另一个亮点是创设了针对“自动驾驶功能”的技术监督员制度。据此,智能汽车保有人有义务采取必要措施,维护道路安全和车辆的环境相容性,并承担相应法律责任。这些义务包括定期维护系统以确保自动驾驶功能正常,采取预防措施以遵守交通规则,履行技术监督义务。为履行该义务,车辆保有人必须指定有专业知识的自然人担任技术监督员远程监控车辆,干预自动驾驶系统。
3
《个人信息保护法(修正案)》
国家:日本
时间:2021年8月
主要内容:修正案主要涉及六大方面:①数据主体的权利;②企业责任;③企业自我完善机制;④数据使用策略;⑤处罚;⑥法案的域外适用性和数据的跨境传输。
此外,该修正案引入“需要特别注意的个人信息”“个人相关信息”“假名化信息”的概念;加强个人数据跨境传输中跨境传输方对数据主体的告知义务。旨在通过扩大数据主体的权利和增加企业的义务来加强对个人信息的保护。
4
《人工智能和数据法案》
国家:加拿大
时间:2022年6月
主要内容:该法案旨在规范人工智能系统中的国际和省际贸易和商业。为此,法案规定:应当采取措施降低高影响人工智能系统存在的伤害和偏差输出风险;提供人工智能的公开报告;授权创新、科学和工业部长制定人工智能系统相关政策,制定“拥有或使用非法获取个人信息”的相关禁令,以保护数据隐私权,实现安全可靠地设计、开发、使用或提供人工智能系统。
04
总结:人工智能立法备受关注
在前文的梳理中可以感受到,当前世界主要发达国家和地区均已关注到人工智能安全立法问题的重要性,以人工智能重点问题为出发点,积极起草、出台人工智能安全治理相关的法律法规,国际人工智能安全治理的法治化水平逐步提高。而且,各国开展的这些立法活动通常带有鲜明的本国特色,如一体化趋势下欧盟率先探索构建统一法律框架、德国人工智能安全立法方向与工业4.0战略契合等,其实质是确保人工智能的发展始终服务地区或国家安全的体现。
人工智能安全政策与标准
人工智能安全政策与标准政策文件大致可分为三类:法律法规和伦理规范、推动产业落地政策以及推动技术创新发展政策
2016年-《“十三五”国家科技创新规划》重点发展大数据驱动的类人工智能技术方法,在基于大数据分析的类人工智能方向实现重要突破
2017年-新一代人工智能发展规划→人工智能上升至国家战略高度
2019年10月-新一代人工智能伦理规范
2019年-人工智能安全标准化白皮书
2021年-人工智能标准化白皮书
2021年4月人工智能核心技术产业白皮书
第十四个五年规划和2035年远景目标纲要“发展算法推理训练场景,推动通用化和行业性人工智能开放平台建设”
在前沿基础理论、专用芯片、深度学习框架等前沿领域重点攻关,实现一批具有前瞻性、战略性的国家重大科技项目
2017年-新一代人工智能发展规划三步战略目标到2020年人工智能总体技术和应用与世界先进水平同步;
到2025年人工智能基础理论实现重大突破、技术与应用部分达到世界领先水平;(成为带动我国产业升级和经济转型的主要动力)
到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。(智能社会取得明显成效)
提出要求建立人工智能安全监管和评估体系加强人工智能对国家安全和保密领域影响的研究和评估,
完善人、技、物、管配套的安全防护体系,构建人工智能安全检测预警机制
2019年-人工智能安全标准化白皮书加速发展新阶段三大驱动因素:算法、算力、数据
上升国家战略高度《新一代人工智能发展规划》
加强人工智能标准框架体系研究;
逐步建立并完善人工智能基础共性、互联互通、行业应用、网络安全、隐私保护等技术标准
人工智能产业链基础层、技术层、应用层
人工智能安全风险分析与内涵
白皮书中提到了“人工智能资产”
在企业应用中,的确将人工智能视为一种资产,期望通过人工智能获得一定的效益。
人工智能资产主要由数据、算法模型、基础设施、产品服务及行业应用组成。
1、新的攻击威胁
攻击方法:对抗样本的攻击、数据投毒、模型窃取、人工智能系统攻击
攻击影响:模型的训练、测试和推断过程中均可能遭受攻击;危害数据和模型的机密性、完整性和可用性。
2、人工智能安全隐患
①算法模型安全隐患:算法是人写的,模型也是人写的,极易存在缺陷。
准确性和鲁棒性平衡、数据依赖、实时场景下的可靠性挑战;
数据偏见;
“黑箱特征”:可解释性和透明性不足
②数据安全与隐私保护隐患:采集数据、使用数据、存储数据都不同程度的滥用泄露。
这里提到了人工智能数据生命周期的概念
③基础设施安全隐患:基础设施定义为人工智能产品和应用依赖的软硬件。
开源算法、软件框架(PytorchTensorflow)、芯片、服务设备、端侧算力....
系统的复杂运行环境和潜在状态
④应用安全隐患:自动驾驶(黑客远程入侵控制导致撞车)、生物特征识别(小学生用照片成功忽悠人脸识别)、智能音箱等等。
⑤人工智能滥用:利用语音合成技术假扮受害人亲属实施诈骗、人工智能技术破解登录验证码的效果越来越好、且难以防范、利用人工智能技术模仿人类,如换脸、手写伪造、人声伪造、聊天机器人。
安全影响:国家安全影响:人工智能可用于构建新型军事打击力量,对国防安全造成威胁。
社会伦理挑战:就业影响;社交影响;法律体系的冲击(机器事故谁来担责?)
人身安全风险:由于漏洞缺陷或恶意攻击等原因损害人身安全
(智能医疗设备、无人汽车、自动武器)
人工智能安全内涵人工智能安全属于网络安全的一部分
该白皮书依据《网络安全法》对网络安全的定义,定义了人工智能安全
人工智能安全是指通过采取必要措施,防范对人工智能系统的攻击、侵入、干扰、破坏和非法使用以及意外事故,使人工智能系统处于稳定可靠运行的状态,以及遵循人工智能以人为本、权责一致等安全原则,保障人工智能算法模型、数据、系统、产品应用的完整性、保密性、可用性、鲁棒性、透明性、公平性和隐私的能力。
采取措施
防范安全风险
目标系统稳定可靠运行
遵循安全原则
保障人工智能资产的8个安全属性
人工智能安全标准体系人工智能实践
B.1百度人工智能安全实践:整体解决方案——AdvBox,对抗样本的增强。
B.2猎户星空人工智能安全实践:豹小秘、豹花瓶等产品,严格按照各种技术要求进行平台建设。
B.3清华大学人工智能安全实践:人工智能对抗性攻防,RealSafe是开源标准程序库,业界可以免费对其进行非商业用途使用B.4依图人工智能安全应用实践:典型人工智能安全问题,依图提出了人工智能系统安全技术的相关要求与解决方案。依图将人工智能系统分为了设备要素和网络要素两大要素的安全
B.5IBM人工智能安全实践:人工智能三原则,人工智能公平360工具箱”(AIF360);AIF360可帮助检测、缓解或消除机器学习模型中的偏见B.6深信服人工智能安全实践:深信服安全云脑具备威胁情报和未知威胁检测能力
B.7360人工智能安全实践:360通过基于人工智能分析的360“安全大脑”,打造智能交通安全动态防御体系,全面保障智能交通安全B.8阿里巴巴人工智能安全实践:实人认证、问答型对抗验证码B.9华为人工智能安全实践:华为结合人工智能技术提出了防偷窥和用户隐私保护的解决方案。手机利用人工智能技术可以检测到是否存在机主/非机主、多人注视屏幕的情况,当手机识别出有陌生人或多人注视屏幕时,会将手机屏幕显示的私密信息自动隐藏,以便保护用户的隐私信息
2021年-人工智能标准化白皮书AI产业链人工智能产业链包括基础层、技术层和应用层
基础层:数据、算力
技术层:各类算法与深度学习技术,通过深度学习框架和开放平台实现对技术和算法的封装
应用层:人工智能技术与各个行业的深度融合
基础层华为、寒武纪、中星微推理芯片产品
问题
硬件指令集、标准规范
使能软件与硬件的兼容性和融合程度
数据规范
趋势
芯片与应用场景结合的产业生态
高效利用数据
技术层问题
泛化型弱,技术瓶颈
深度学习框架生态建设程度不够。在算法、芯片、终端和场景应用方面都依赖国外的深度学习框架生态。
人工智能测试体系不够全面
「一是测试重复度高。现有测试基准的测试内容和模型重复度高,但又有遗漏;
二是体系化设计与建设有待加强,尚未形成成熟的功能、性能测试基准;
三是人工智能测试标准体系还未形成,公平性和权威性有待完善。」
人工智能产业生态基础层基础层按照服务的线条被划分成芯片服务、云服务、机器学习平台和数据服务等,它们都是整个AI行业最底层服务提供者;
在基础层,讯飞的开放平台、百度大脑、腾讯云是我们接触比较多的机器学习平台,阿里云、百度云是做得比较好的云服务提供商。
技术层在技术层,按照技术类别分为计算机视觉、语音识别、自然语言处理、知识图谱等;
在技术层,有我们熟悉的“视觉四小龙”(商汤、依图、云从、旷视),主要是提供计算机视觉服务,最常见的应用场景就是人脸识别了;还有科大讯飞、云知声、思必驰等,主要提供语音识别、语音合成、语音分析等服务。
应用层在应用层,按行业分为零售、金融、教育、工业、互联网、医疗、安防、政务、交通、自主无人系统等;
在应用层,有我们熟悉些大疆无人机、京东的零售、滴滴打车服务、字节跳动的头条推荐等。
全链服务除了以上讲的几个层,在整个AI产业生态中,BAT等大厂还提供了全链条的服务,它们既做了最底层的基础服务,比如云服务、机器学习平台;也做技术层,比如BAT也有自家的计算机视觉、语音识别等能力;同时,它们也有应用层的整套方案,比如百度大脑。
有关我国人工智能安全与伦理标准制定的思考
原标题:有关我国人工智能安全与伦理标准制定的思考【学术研讨】
有关我国人工智能安全与伦理标准制定的思考
庞硕
(中国计量大学)
摘要
作为政府治理的手段、科技创新的刚需和产业发展的标配,标准化在优化区域营商环境中的作用重大。本文以肇庆为例,从标准化治理逻辑出发,探讨标准化治理与营商环境优化间的内在逻辑,以此梳理肇庆市营商环境优化中标准化治理的显著成效。并以新发展理念为脉络,提出肇庆营商环境优化中标准化治理的发展路径。
2020年8月5日发布的《国家新一代人工智能标准体系建设指南》,在推动人工智能安全、伦理标准规范制定和促进人工智能产业健康及可持续发展上迈出了重要的一步,但仍缺少某些重要标准的制定,如人工智能的伦理道德标准和机器制造者、使用者的安全和伦理标准。本文针对我国目前集中建立人工智能安全和伦理标准的现状,分析国外人工智能标准化建设对我国的借鉴意义,并对我国人工智能安全与伦理标准的制定提出建议。
关键词:人工智能,标准,安全,伦理
作者简介
庞硕,中国计量大学硕士研究生,研究方向为知识产权与网络法治。
1人工智能对人类安全与伦理的挑战
2标准在人工智能领域的意义与功能
3国内外人工智能安全与伦理方面标准制定现状
4对我国人工智能安全与伦理标准制定的建议
展开全文参考文献
[1]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017,35(05):128-136.
[2]梁志文.论人工智能创造物的法律保护[J].法律科学(西北政法大学学报),2017,35(05):156-165.
[3]胡影,上官晓丽,张宇光,刘贤刚.人工智能安全标准现状与思考[J].保密科学技术,2017(11):23-26.
[4]李政东.人工智能安全标准现状与思考[J].现代信息科技,2018,2(06):184-185+187.
[5]李修全.人工智能应用中的安全、隐私和伦理挑战及应对思考[J].科技导报,2017,35(15):11-12.
[6]孙杰贤.国家人工智能标准化工作启动[J].中国信息化,2018(02):17-19.
[7]张佩玉.人工智能标准东风渐吹——访中国信息通信研究院技术与标准研究所副所长何宝宏[J].中国标准化,2017(23):28-31.
[8]董建.标准化引领人工智能产业发展[J].信息技术与标准化,2018(06):15.
[9]于连超,王益谊.美国标准战略最新发展及其启示[J].中国标准化,2016(05):89-93.
[10]杜严勇.论人工智能的自反性伦理治理[J].大数据时代,2018(03):37-43.
[11]李密.国家标准化管理委员会等五部门:联合印发《国家新一代人工智能标准体系建设指南》[J].中国设备工程,2020(17):1.
[12]五部门联合印发《国家新一代人工智能标准体系建设指南》[J].智能制造,2020(09):10-16.
[13]曹胜亮,张晓萌.人工智能时代数据竞争的法律规制[J].学习与实践,2019(10):83-91.
联系人:
malei@cnis.ac.cn
gaopeng@cnis.ac.cn
地址:北京市昌平区天通中苑51号2层
来源|《标准科学》2021年第2期
返回搜狐,查看更多责任编辑:人工智能安全标准规范制定情况
人工智能安全、伦理、隐私保护等的安全相关标准,大多仍处于研究阶段。
国外IEEE正在开发人工智能伦理道德标准,规范人工智能安全设计。2017年3月,IEEE在《IEEE机器人与自动化》杂志发表了名为“旨在推进人工智能和自治系统的伦理设计的IEEE全球倡议书”,倡议通过基于伦理的设计原则和标准帮助人们避免对人工智能技术的恐惧和盲目崇拜,从而推动人工智能技术的创新。目前,IEEE工作组正在开发IEEEP7000系列中涉及道德规范的7项伦理标准,分别对系统设计中伦理问题、自治系统透明度、系统/软件收集个人信息的伦理问题、消除算法负偏差、儿童和学生数据安全、人工智能代理等方面进行规范,包括:IEEEP7000《在系统设计中处理伦理问题的模型过程》、IEEEP7001《自治系统的透明度》、IEEEP7002《数据隐私处理》、IEEEP7003《算法偏差注意事项》、IEEEP7004《儿童和学生数据治理标准》、IEEEP7005《透明雇主数据治理标准》、IEEEP7006《个人数据人工智能代理标准》、IEEEP7007《道德驱动的机器人和自动化系统的本体标准》、IEEEP7008《机器人、智能和自治系统的伦理驱动推进标准》、IEEEP7009《自治和半自治系统的故障安全设计标准》和IEEEP7010《道德人工智能与自主系统的健康度量标准》。
ISO/IEC成立人工智能可信研究组,开展人工智能安全标准研究。
2017年,人类未来研究所发布的《阿西洛马人工智能原则》,旨在确保AI为人类利益服务。有1273名人工智能/机器人研究人员和其他2541人签署并支持了这些原则。呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全[7]。
2019年3月,欧盟网络信息安全局(ENISA)发布了题为《建立网络安全政策发展框架——自主代理的安全和隐私考虑》的报告,旨在为欧盟成员国提供一个安全和隐私政策发展提供框架,以应对日益普及的AI应用。2019年4月,欧盟委员会发布正式版的《可信赖AI的伦理准则(EthicsGuidelinesforTrustworthyAI)》,提出了实现可信赖人工智能全生命周期的框架。根据官方解释,“可信赖的人工智能”有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。
国际和国外标准化组织在生物特征识别、自动驾驶等领域也开展了许多安全标准工作。以自动驾驶领域为例,2012年欧洲电信标准化协会(ETSI)发布ETSITS102941《智能交通系统可信和隐私管理》;2014年美国国家标准技术研究院(NIST)发布《车联网网络攻击防护安全框架》;2016年美国汽车工程师学会(SAE)发布SAEJ3061《信息物理汽车系统网络安全指南》;ISO/TC22(道路车辆技术委员会)正在研制ISO/TR15497《道路车辆——车用软件开发指南》等标准。
国内我国成立国家人工智能标准化总体组与专家咨询组,加强人工智能安全标准研制工作。目前,全国信息安全标准化技术委员会(TC260)已在生物特征识别、汽车电子、智能制造等部分人工智能技术、产品或应用安全方面开展了一些标准化工作。在生物特征识别安全方面,TC260已发布GB/T20979-2007《信息安全技术虹膜识别系统技术要求》标准,正在研制《基于可信环境的生物特征识别身份鉴别协议》《指纹识别系统技术要求》《网络人脸识别认证系统安全技术要求》等标准;在自动驾驶安全方面,2017年TC260立项《信息安全技术汽车电子系统网络安全指南》标准项目,这是我国在汽车电子领域第一个网络安全国家标准;在智能制造安全方面,TC260正在研制《工业控制网络监测安全技术要求及测试评价方法》《工业控制网络安全隔离与信息交换系统安全技术要求》《工业控制系统产品信息安全通用评估准则》《工业控制系统风险评估实施指南》等工控安全标准。
参考信通院人工智能安全白皮书