论人工智能领域个人信息安全法律保护
当下,人工智能的讨论炙手可热。国家之间的人工智能“较量”也愈演愈烈,2019年2月,美国启动“人工智能倡议”,希望集中联邦政府资源发展人工智能[1];俄罗斯也在2019年6月制定了人工智能领域的国家战略[2];我国各地的人工智能政策或项目也逐渐落地,比如北京正式揭牌成立人工智能创新发展试验区,引领人工智能科技前沿和发展方向[3]。各国基本上都将人工智能纳入了本国的发展战略,人工智能将会给社会的发展和变革带来深层次的影响。
人工智能的高速崛起对当下的法学研究也提出了诸多新问题与挑战。已有学者对人工智能领域的人格权保护问题、知识产权保护问题、刑法保护问题等进行了研究,但对人工智能领域的个人信息安全问题研究目前鲜有涉及。尽管人工智能的定义比较广泛且多变,但在人工智能的基础层面基本上无异议。毕业于美国密歇根州立大学法学院的马修·胡默里克(MatthewHumerick)博士认为,“在人工智能最基础层面上,人工智能是一个能够学会学习的系统”[4]。在笔者看来,人工智能不仅仅是智能系统自主学习的体现,对于人工智能的分析应当从两个层面进行,目前人工智能领域的主要应用在于智能系统和“智能物”两大模块,智能系统主要指软件系统,该部分的软件系统不同于硬件或者是软件与硬件的结合类型,当然软件系统部分起核心作用的仍是程序。“智能物”则包括智能机器人和被智能化的物品,比如工业机器人、服务机器人、智能手机、智能扫地机器人等智能终端产品,“智能物”仍是依靠程序驱动,但主要体现的是其有形存在的一面,而软件系统则多是以无形的方式存在。人工智能发挥作用主要依赖于对数据和信息的收集、分析、利用,个人数据信息的处理尤为凸显。因此,个人数据信息的安全和保护成为亟待解决的法律问题。
一、人工智能危及个人信息安全(一)人工智能危及个人信息安全的收集和利用1.个人信息收集方式的隐秘性与传统收集个人信息的方式不同,人工智能通过各种端口侵入个人生活,收集个人信息[5]。这些智能端口无处不在,遍布我们的生活空间,如头顶的摄像头、电脑的USB接口、手机的指纹识别触控、行车导航的定位仪,以及我们完全意识不到的其他位置等领域。人工智能领域,不论是智能物还是智能系统都离不开智能端口,当这些智能端口收集个人信息时,我们不仅很难察觉,而且也缺乏必要的防范意识,更不会考虑甚至是没有能力追寻我们的个人数据信息通过这些智能端口到底将个人数据信息传向哪里。比如iPhoneOperatingSystem(简称iOS)系统记录用户的指纹和面容,大部分用户只能意识到指纹和面容用来解锁手机,根本不会察觉到系统收集到所有用户的指纹和面容信息会进行什么样的分析和计算,更不会考虑从终端用户获取的这些指纹和面部信息是否会被用于其他地方。人工智能领域个人信息安全面临严重威胁的同时,人工智能对个人信息的隐秘收集对国家和社会也会造成一定程度的威胁。
2.个人信息的收集极易侵犯个人隐私人工智能不仅隐秘地收集个人数据信息,而且鉴于人们对智能物和智能系统的被动的无理由的信任,被人工智能收集到的个人信息更多地涉及个人隐私。传统收集个人隐私信息的方式,大多是跟踪偷拍、监视监听、非法搜查,而人工智能却很容易就能通过其自主学习和分析获取包含个人隐私的隐秘数据信息。作为人工智能产物的聊天机器人就是典型的事例体现。与过去只能简单对话的机器人不同,人工智能聊天机器人的终极目标是通过“图灵测试”①(Turingtest),即超过30%的测试者不能判断被测试的到底是机器还是人类。可见聊天机器人可以做到像人类一样分析对方的心理活动,在用户毫无防范意识的状态下,通过聊天获取终端用户不会随意透露的隐私数据,甚至还会通过其自带的算法诱导终端用户说出更多的私密信息。
①图灵测试(又译图灵试验)是图灵于1950年提出的一个关于判断机器是否能够思考的著名试验,测试某机器是否能表现出与人等价或无法区分的智能。测试的谈话仅限于使用唯一的文本管道,例如计算机键盘和屏幕,这样的结果是不依赖于计算机把单词转换为音频的能力。维基百科.图灵测试[EB/OL].[2019-10-29].https://wikipedia.hk.wjbk.site/baike-%E5%9B%BE%E7%81%B5%E6%B5%8B%E8%AF%95.
此外,在大数据技术的支持下,人工智能随着自主学习能力和人机交互能力的不断提高,日后可以为人类提供越来越细致和周密的服务,包括做饭、打扫、陪伴、聊天、学习、恋爱等完全属于个人私生活领域的服务,智能物和智能系统将在服务过程中不断地将终端用户的相关个人数据信息记录其中。同时,随着人工智能学习能力的逐渐提高,通过关联性分析和数据技术分析,很可能使过去一般存在的个别信息变为可以识别个人主体的信息。比如根据一般的使用痕迹和轨迹,人工智能通过汇总分析可以得出相对具体的个人数据信息,而终端用户在使用人工智能时,并不能轻易地将操作信息记录从人工智能中完全移除。随着人工智能所有权或使用权的流转,其记录的个人信息会继续在网络空间中流动传播,也会随着人工智能所有权、使用权的变动而发生改变。通过读取人工智能代码和操作记录,个人信息在专业人士手中一览无遗,没有任何隐私信息秘密可言。
人工智能搜集个人数据信息超出原有目的使用范围也已成为常态,新兴技术的不断涌现还将带来更多新的个人信息保护等问题。以目前人工智能技术水平,仅从收集和利用个人信息的角度看,人工智能收集和利用个人信息已没有过多的障碍,不论是对于智能物还是智能系统来说,人工智能都可以在当事人不知情的情况下擅自收集、处理、利用个人信息,而此时个人信息受到侵犯的侵权主体就需要从法律层面进行明确的界定。
(二)人工智能作为侵犯个人信息主体的认定复杂性人工智能包括智能物和智能系统,人工智能侵犯个人信息权利的主要方式有两种:人工智能被人利用发生的侵权行为或者人工智能算法本身存在侵权可能性[6]。在笔者看来,人工智能侵犯个人信息主体的认定也应当在此两种情况下分别讨论。
1.人工智能的被动侵权人工智能的被动侵权主要是指人工智能被第三方利用侵权的一种侵权方式,此种情形下的侵权需要明确界定侵权主体,因为即使人工智能被利用,人工智能也未必就一定被认定为侵权主体。早在20世纪40年代,科幻作家艾萨克·阿西莫夫(IsaacAsimov)提出“机器人三定律”②,根据该原则,机器人在必须服从人类命令的同时不得做出伤害人类的事。显然人工智能被人利用侵权时,与“机器人三定律”的原则相悖。例如人工智能在快递领域的普及应用,快递业务是最容易导致个人信息被侵犯的领域。寄件人在邮寄快递时,必须进行实名认证,填写真实的姓名、电话、邮寄内容、寄件地址以及收件人的基本信息,当快递获得的个人数据信息被泄露之后,侵权人利用人工智能系统,可以轻易分析出收件人的“画像”,甚至能够对收件人的心理信息和后续行为信息进行预判,进而实施犯罪活动[7]。侵权人利用人工智能实施违法行为,即使根据现阶段的法律制度,对其进行追责,其也应当要承担法律责任。也就是说,此时人工智能并不是侵权主体,而利用人工智能进行侵权的人才是真正的侵权主体。
②机器人三定律,第一法则:机器人不得伤害人类,或坐视人类受到伤害;第二法则:除非违背第一法则,否则机器人必须服从人类命令;第三法则:除非违背第一或第二法则,否则机器人必须保护自己。维基百科.机器人三定律[EB/OL].[2019-10-30].https://wikipedia.tw.wjbk.site/wiki/%E6%9C%BA%E5%99%A8%E4%BA%BA%E4%B8%89%E5%AE%9A%E5%BE%8B.
2.人工智能的主动侵权人工智能由于算法本身导致侵权也存在两种情况,其一是人工智能存在算法缺陷,软件系统在运行中无法实现保护个人信息的功能,根据《中华人民共和国侵权责任法》(以下简称《侵权责任法》)第5章第41条③”的规定,该侵权责任由生产者承担。目前的人工智能尚处于高级函数决定的阶段,还不具备自主侵权的“意识”,所以不具有主体资格,自然没有承担责任的能力。在这种情况下,人工智能侵权只是表象,并不是真正意义上的侵权主体,而侵权主体实质上还是具有注意义务的生产者。但根据《中华人民共和国产品质量法》(以下简称《产品质量法》)第41条④”的规定,生产者应当对人工智能侵权负有责任,但是同时生产者的责任亦存在免责事由,且笔者认为,在一定程度上看,必须严格适用生产者的免责事由。人工智能技术本质上是算法和程序的更新进步,程序开发者在开发人工智能的过程中,难免存在一些尽到注意义务后仍然不可避免的算法缺陷,因此应当严格适用免责事由,如此,有利于激励创新,给予生产者应有的宽容。其二是人工智能自主侵权。当人工智能技术发展到与人类交互甚至超越人类的智慧之时,人工智能可能完全不受人类控制,做出侵权行为。比如一辆无人驾驶汽车在自主驾驶的过程中将乘客的出行信息自主上传到网络空间,此时所有人或使用人并未对其进行操作,表面上看似乎完全是汽车的责任,但是在现行法律框架下,汽车并不具有主体资格。在人工智能没有被认定为法律主体的情况下,其做出的侵权行为应当由谁承担责任是现行法律无法解决的问题。有部分学者认为,人工智能无法成为责任主体,可以由制造者承担“公平责任”。但是人工智能技术的研究和发展本来就是人类难以预测的,人类制造人工智能的核心目的不是探索科技可以达到什么样的高度,而是希望人工智能提供越来越高端理想的社会服务。当人工智能完全可以代替人类体力及脑力活动的时候,人类本应当预料到人工智能有失去控制的可能性。因此笔者认为,让制造者承担“公平责任”有违科技发展的目的,甚至会阻碍制造者的研发积极性。在人工智能不具有侵权主体资格的情况下,可以考虑从技术源头防止人工智能的侵权行为发生。
③《侵权责任法》第5章第41条:“因产品存在缺陷造成他人损害的,生产者应当承担侵权责任。
④《产品质量法》第41条:“因产品存在缺陷造成人身、缺陷产品以外的其他财产损害的,生产者应当承担赔偿责任。生产者能够证明有下列情形之一的,不承担赔偿责任:(一)未将产品投入流通的;(二)产品投入流通时,引起损害的缺陷尚不存在的;(三)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。
(三)人工智能的追责机制缺失1.人工智能侵犯个人信息的法律保护机制缺失目前在人工智能领域涉及具体的个人信息保护的法律法规几乎未有,仅在2017年实施的《中华人民共和国网络安全法》(以下简称《网络安全法》)和部分行政规章⑤”中有比较分散的对个人信息的保护规定。《网络安全法》对个人信息的含义、侵犯个人信息应当承担的法律责任,以及经营者收集个人信息的方式都作了较为明确的法律规定,但是人工智能领域的个人信息保护问题远不止现行法律规定的情形,鉴于人工智能强大的运算分析技术和对个人信息安全的影响力度,应当明确以下问题:首先,应当界定人工智能领域个人信息的含义及范围;其次,人工智能对个人信息的使用方式应当有明确的界定;再次,人工智能领域侵权责任的承担不应当直接适用《网络安全法》的规定。总之,人工智能侵犯个人信息的保护机制要综合考虑人工智能技术和发展问题,不能局限于当前的法律框架和已经存在的问题。
⑤《互联网电子公告服务管理规定》第12条:“电子公告服务提供者应当对上网用户的个人信息保密,未经上网用户同意不得向他人泄露,但法律另有规定的除外。”《互联网电子邮件服务管理办法》第9条:“互联网电子邮件服务提供者对用户的个人注册信息和互联网电子邮件地址,负有保密的义务。互联网电子邮件服务提供者及其工作人员不得非法使用用户的个人注册信息资料和互联网电子邮件地址;未经用户同意,不得泄露用户的个人注册信息和互联网电子邮件地址,但法律、行政法规另有规定的除外。
2.人工智能产品开发缺乏有效的法律保障机制智能物和智能系统都是人工智能产品,人工智能产品的核心技术在于软件程序,因此在人工智能产品开发中就会对个人信息保护问题造成决定性的影响,我国法律对此并无规定。软件开发规范(GB/T8566-2007《信息技术软件生存周期过程》)仅规定了计算机软件系统和软件产品以及服务的获取,软件产品的供应、开发、运行和维护等问题,关于软件可能涉及的信息安全问题完全没有规定。中国电子技术标准化研究院编写的《人工智能标准化白皮书(2018)》(以下简称《白皮书》)梳理了人工智能产品应当符合的“安全/伦理标准”,其中明确涉及隐私保护规范。根据《白皮书》的分析,人工智能算法、系统和产品都应当符合一定的安全要求和测评方法,在人工智能的开发和部署过程中应当充分考虑责任和过错问题,制定完善的相关安全法规[8]。但是现实制度中,对人工智能产品中个人信息的规制和监管力度相对较弱,弗里曼·戴森(FreemanJ.Dyson)曾经说过:“技术只会给我们提供工具,人类的欲望和制度决定了我们如何利用它们。”[9]
二、人工智能领域的个人信息界定“智造时代”,在数据驱动的经济中,个人信息通常被认为是“免费”的数字服务,同时客户数据已经被视为商业资产[10]。而作为终端用户的个体似乎完全没有意识到自己的个人信息运转于人工智能的庞大数据系统,更意识不到自己的信息驱动着人工智能的经济价值。因此,有必要对人工智能领域个人信息的概念进行界定,并分析人工智能领域个人信息被运转的方式。
(一)个人信息的界定人工智能的核心技术依靠算法和数据完成,在智能物和智能系统中被收集利用的个人信息本质上是在网络空间中运转。因此,笔者认为人工智能领域的个人信息与网络空间中的个人信息本质上具有同质性,从法律层面看,人工智能领域的个人信息与网络空间中的个人信息法律属性具有一致性。
1.个人信息的概念美国SP800-122《保护个人身份信息的保密指南》以概括加列举的方式规定了个人身份信息的定义,可以概括为用于区别或追踪个人身份以及可以被链接到一个人的任何信息,诸如社会安全号码、出生地、医疗信息等[11],根据该定义,个人身份信息具有“识别性”和“关联性”。
我国对个人信息的概念明确界定在《网络安全法》中,该法第76条第5款将个人信息定义为以某种方式记录的,能够单独或者与其他信息结合而识别出自然人身份的信息,包括自然人的姓名、出生日期、证件号码、住址和电话号码等。《网络安全法》同样以概括加列举的方式解释个人信息的含义,从此款规定可以看出,所有能以一定方式固定下来,并能以此识别出个人身份的信息就是个人信息,也就是说此处的个人信息应当包括直接可识别的个人信息和间接可识别的个人信息。在笔者看来,没有必要非要对个人信息进行直接和间接的分类,因为网络空间中的个人数据信息具有动态性及可变性的存在形式,但是不论其存在形式如何变化,其个人数据的法律属性应当是固定的,即使个人信息具有价值,体现其财产属性的一面,但个人信息的存在不是以个人信息交易为目的,个人信息权的权利基础应当属于一项具体人格权范畴,否则个人信息将失去规范的基础。
2.个人信息的识别要素根据《网络安全法》第76条对个人信息的解释,“可识别性”和“可固定性”是识别个人信息所应当具有的两个基本要素。首先,根据现有的个人信息能够“识别”出具体的自然人,在现行社会制度下,能够通过自然人的姓名、肖像、身份证号、住址等常规信息识别出自然人,人工智能则可以通过分析个人爱好、购买记录、浏览记录、行走路线等就能识别出具体自然人。也有学者认为,个人信息不应局限于本人所知[12],对于本人不知道的信息,但能识别出自然人的也属于个人信息,例如被阿里巴巴收集的购买记录、被支付宝收集的付款记录,以及被行车导航收集的出行路线等,都是应当给予保护的个人信息。其次,个人信息具有“可固定性”,即个人信息被利用的前提是被收集,而被收集的个人信息也不可能凭空存在,其必然是通过一定的方式固定存储在某个介质中,该介质既可能是有形的载体也可能是无形的数据库,《网络安全法》第76条中的“记录”当属此意。比如机场的安检通关系统,通过人脸识别认定个人信息与机票信息一致,并对通关旅客进行记录。那么进行这一操作的前提必然是将所有可能通关的自然人肖像以及其他身份信息存储在安检系统中,当旅客持机票和证件通过时,登机牌、证件和人脸所能识别出的信息一致即可。我国民航管理部门认可了首个人工智能安检通关系统,代替人工验证岗,“站立”在安检岗的人工智能系统能够在8秒内完成人证票核验,可见其中记录的个人信息达到怎样的完善程度[13]。当前的社会运行体系中,几乎所有的个人信息都实现电子化,对信息的处理也大都实现在线处理,即在网络空间中完成处理过程。过去纸质化的个人信息已经不适应信息迅速流动的社会环境,现代社会的信息需要实现快速传递甚至即时共享,以人工智能领域为例,发挥个人信息最大价值的方式就是“处理”个人信息,通过一系列的挖掘、分析、应用,获取隐藏在个人信息下具有更大内涵和价值的信息资源。
(二)人工智能领域的个人信息分类1.人工智能物存储的个人信息人工智能物通常是收集、存储个人信息的来源,机器人、智能家电、苹果iOS系统等,只要对其进行操作,所有的操作行为都会被记录下来。比如我们所熟悉的iPhone中有一项称为“健康”的应用程序,将手机中的时钟、信息、支付宝、淘宝、QQ等其他应用作为数据来源,记录机主每天的步行距离、步数、已爬楼层等个人信息。此类个人信息直接反映机主的生活记录、健康状况、活动轨迹等,称为直接个人信息,即不需要经过特别分析就能直接识别出机主的身份。
在弱人工智能时代,智能物只是借助自动化的程序和代码,代替人类进行简单的重复性劳动,不需要机器通过分析数据进行深度学习。到强人工智能时代,智能物将能够完成像人类一样的思考和行为,甚至比人类更“聪明”。但是在笔者看来,不论弱人工智能时代还是强人工智能时代的智能物都需要对终端用户的操作进行记录,否则无法为终端用户提供真正意义上的智能化服务。比如自动驾驶技术必须能够记录终端用户的出行路线,聊天机器人也必须记录与终端用户的聊天过程。
2.人工智能系统分析数据获取的个人信息人工智能系统的运行通常是分析、利用个人信息的阶段,智能系统通过深度挖掘,获取与个人相关的所有信息,再分析出有更大利用价值的信息。比如淘宝智能系统,根据用户的“足迹”、购买记录、搜索记录,分析用户的喜好和消费倾向,根据分析结果在淘宝首页向用户推送类似产品,此后用户将在淘宝首页的所有模块看到相关推送,包括“猜你喜欢”“抢购”“特卖”等模块。
墨尔本大学微软社会自然用户界面研究中心(SocialNUI)和墨尔本科学画廊合作研发出一款“生物智能镜”,这面“镜子”将人的面部和一个面部数据库进行对比,进而得出人的幸福程度、内向程度、侵略性等智能分析结果。虽然这项研究的目的是反思人工智能看似合理的未来是否是我们希望看到的成形的未来,但如果仅着眼于技术,这项研究证明人工智能系统利用算法分析数据很容易获取更多相关的个人信息[14]。除了从镜头和图像中分析性别、年龄和种族之外,人们甚至担心人工智能系统可以准确地预测出个人的性取向甚至政治倾向,人工智能系统对个人信息的获取影响到个人信息安全的程度可见一斑。
人工智能要想扩展到人类的智能,就需要不断地用于模拟、延伸其自主学习的智能系统能力,当人工智能系统通过不断的自主学习直到强人工智能时代,其智能系统将达到人类无法想象的程度。人工智能系统对个人信息的分析和利用,可能会因为制造者的恶意侵犯个人信息安全,也可能会因为人类无法解释的算法黑箱⑥造成更大的损害。计算机程序员负责编写源程序,计算机负责转化出由“0”和“1”组成的目标代码,而源程序如何在计算机内部转化成目标代码,这是程序员也无法解释的问题。例如一台专门为慈善制造的机器可能自己会“变恶”,进化和学习算法可能会导致一个本质上是黑匣子的系统,这个系统如此复杂以至于专家们可能无法完全理解它的内部运作。和人类一样,这种机器可能有极其复杂的“心理”,所以智能机器具有恶意的可能性是非零的[15]。因此,有必要对人工智能领域个人信息的收集、处理、应用等方面进行有效的法律规制,以更好地保护个人信息。
⑥算法黑箱也被称作“黑匣子”,通常是指程序设计者无法探明原理的计算机运行过程。
三、人工智能领域个人信息安全法律保障制度的构建目前我国仍没有对个人信息进行专门立法保护,在立法保护不足的前提下,人工智能领域涉及的个人信息安全问题更加难以保证。来自美国计算机法专家乔治.S.科尔(GeorgeS.Cole)在20世纪90年代就指出:“在将来,任何一般的人工智能产品都不会在现实世界中漫游,无论是作为移动机器人,还是作为一个自由流通的程序,都会在一定的限制环境中应用,不可避免的是,特定的环境应用程序将造成一些相关的经济损失、财产或人身伤害或死亡。”[16]在立法保护和完善程度上,欧美国家对个人信息的保护相对比较成熟,欧美国家在保护个人信息方面主要体现在对个人信息所有者的权利、增加企业的义务,尤其注重个人隐私方面的保护。可以借鉴国外立法经验,结合人工智能和网络环境的特性,完善我国人工智能领域个人信息保护的法律制度。
(一)制定人工智能领域个人信息安全标准1.制定人工智能领域个人信息使用标准化制度我国《个人信息保护法》呼之欲出,但是人工智能领域的个人信息在网络环境中其动态变化可能超出《个人信息保护法》涵盖的范围。《网络安全法》对个人信息的解释可以适用于人工智能领域,但是在司法实践中应当对其范围作出更加详细的解释。首先,可以制定特殊法条,专门规定人工智能领域的个人信息概念范畴,为保护人工智能领域个人信息奠定基础。其次,应当明确人工智能领域使用个人信息的标准。在人工智能领域对个人信息的处理通常与大数据技术交叉结合,具体包括收集、存储、分析、使用等模式。笔者认为,《中华人民共和国个人信息保护法(草案)》(2017年)中对于收集、处理和利用个人信息的规定,可以适用于人工智能领域对个人信息的处理使用。根据该草案,“收集”是指以使用为目的获取个人信息,“处理”包括输入、存储、编辑、删除等操作,“利用”是指对个人信息进行目的内且“处理”之外的合法使用[17]。
2.确立人工智能领域终端用户的信息选择权人工智能创造的经济价值与个人信息的保护本身存在一定的冲突和矛盾,这是一个需要平衡和制约的问题。若不顾终端用户信息权利取得科技进步,将违背人类制造人工智能的本意,人工智能应当处于为人类服务的地位,而不应该给人类带来安全隐患。为了加强对个人信息安全的保护而抑制对科技的探索,也会导致人类的科学发展止步不前。部分人认为科技的发展必然会产生安全隐患,用户基于保护信息安全,可以选择不使用人工智能。笔者认为这不利于从根本上解决问题,并且用户的“选择权”可以用于对人工智能技术的选择。比如讯飞的翻译机,为了防止终端用户信息的泄露,公司在产品中设计了离线翻译版本,用户在离线状态下使用翻译机,并不会将信息上传到网络空间。因此,法律可以对人工智能制造者进行规制,凡是能实现离线使用的产品,制造者应当设计这一选择程序,增强终端用户的信息选择权。
(二)建立人工智能领域个人信息安全法律保护制度1.明确个人信息的权利属性2018年5月25日欧盟《一般数据保护条例》(GeneralDataProtectionRegulation,GDPR)正式生效,意味着欧盟对个人信息的保护达到前所未有的高度。《GDPR》对个人信息的处理主要体现在以下几个方面:首先,其规定欧盟用户不仅可以查阅被收集、处理的信息,并且有权了解人工智能自动化决策的程序、目的以及处理后果。笔者认为这一规定正面应对了人工智能的特性,人工智能制造者为人工智能设计自动化程序,制造结束投入使用后,制造者和使用者在正常使用中不再对程序进行修改,人工智能自主完成目标任务。因此,当终端用户预先知晓自动化决策的目的和后果时,可以选择是否进行下一步操作或使用人工智能,可以对个人信息的处理作出选择。我们所熟悉的淘宝平台的隐私权政策中有类似声明,其写明将“约束信息系统自动决策”,但明确提出在某些业务功能中会自动作出决定。很明显这样模糊不清的声明并不利于保护终端用户的个人信息,当发生侵权案件时,仍需要对其声明条款和侵权行为详细分析。其次,规定欧盟用户有权反对以商业目的进行个人信息分析的数据控制者,并有权要求删除其个人信息。人工智能最大的商业或经济价值之一就是分析个人信息,根据分析结果给终端用户推送相关产品和服务,刺激终端用户的行为和消费。如果终端用户有权反对数据控制者的分析行为,并要求删除个人信息,对终端用户来说可以有效避免被人工智能推送影响而产生的冲动性消费。再次,欧盟用户有权将其携带的个人信息,在不同的数据控制者之间进行存储和转移[18]。笔者认为,如果个人信息被法律明确界定为某种权利,欧盟的这一规定对于权利交易来说具有一定的保障功能。在维护数据所有者权利这方面,我国法律存在很大的完善空间,可以从界定个人信息的属性出发,明确个人信息既是一项绝对权利,又是一项具体的人格权,为个人信息的保护夯实法律依据。
2.完善与人工智能领域相关的立法《网络安全法》第41条规定网络经营者应当合法收集个人信息,并经过被收集者的同意。《网络安全法》虽然规定了用户同意机制,但这一规定仍然不能够应对由人工智能所引起的个人信息安全问题。智能物收集个人信息时,会直接越过用户同意的步骤。智能系统分析个人信息时,通常也不会经过用户的同意。笔者认为,法律制度可以从技术源头遏制个人信息侵权问题。首先,人工智能制造者根据对个人信息数据的分析结果制造用户需求的智能产品,因此在制造之前,规定制造者必须合法获取个人信息。其次,在人工智能制造之初,规定人工智能的制造者设计用户同意程序,此处的用户同意程序,不应当是简单的格式条款,而是在收集存储用户信息之前必须经过用户的同意。最后,在人工智能运行过程中,扩大“知情—同意”机制的适用范围,原则上任何处理用户信息的步骤都要经过用户的同意,涉及用户隐私的信息更要有清晰的提示,且不得设计强制用户接受同意的程序。
(三)建立人工智能领域个人信息安全的责任机制1.确立人工智能主体的追责机制确立人工智能主体的追责机制是保护人工智能领域个人信息安全的必要前提,也是追责人工智能侵权个人信息时承担责任的基础。目前,人工智能还没有被认为其具有法律上的主体资格,尽管存在其具有主体资格的论述;但笔者一直主张人工智能不具有法律上的主体资格,在笔者看来,此处人工智能的主体并不是指人工智能作为自身的主体,而应当是指人工智能的实际控制者,不论是智能系统的软件人工智能,还是仅仅指智能物,这是目前规制人工智能侵犯个人信息的追责依据,否则很难从法律上认定人工智能自身作为侵权主体而存在。在笔者看来,人工智能无论进化到什么程度,都不能够取代人类的主体资格,也不应当存在所谓的“拟制人”之说,否则将违背自然规律。若真的强人工智能到来,再讨论人工智能主体的追责机制也无实际意义,到那时人类生存权将是首要面对及考虑的。
2.建立人工智能产品的监管机制建立人工智能产品的监管机制有助于加强人工智能领域个人信息安全的保护。首先,应当参照《产品质量法》和《侵权责任法》的规定,明确生产者在开发过程中设置保护个人信息功能的通用标准,避免出现缺陷产品。其次,建立人工智能监管和召回机制,生产者以及销售者在人工智能产品售出后应当定期监督人工智能产品对个人信息的收集和使用情况,监督人工智能产品保护个人信息功能的实现,一旦发现人工智能产品缺陷或者有危及个人信息安全的情形,应当立即召回或停止服务。再次,可以制定人工智能领域个人信息安全的行业标准体系,推动发挥人工智能领域行业的自律作用。最后,可以增设人工智能产品的责任保险,该责任机制的设置可以借鉴《中华人民共和国保险法》相关条文中类似于交通事故责任强制保险的规定,在难以确定人工智能侵权责任主体的情况下,可以为被侵权人和生产者提供各自相应的保障。
3.建立健全企业责任机制首先,用户对企业在公共平台披露、存储的个人信息应当有获知其信息状态与信息权利运行的知情权。《网络安全法》对此没有相关规定,而我国部分网络平台会在法律声明中说明用户的信息权利。但是笔者认为,当网络平台违反与用户达成的协议后,用户只能围绕违约行为提出法律诉求,而双方的协议中通常不会约定违约责任如何承担,因此并不能为用户提供实质性的保护。其次,当发生个人信息重大泄露事故时,企业应当及时向监管机构报告。欧盟新规明确规定,如果发生用户重大数据泄露,企业应当在72小时内向监管机构或数据所有者报告。而《网络安全法》第47条规定只在发现法律法规禁止发布或传输的信息时,网络运营者才有向有关部门报告的义务。该法也并未对法律法规禁止发布或传输的信息进行明确的解释,可见此条规定并不是对个人信息权利的专门保护。再次,限定人工智能自动化系统对个人敏感信息进行自动决策和自动处理的行为。企业的这项义务有赖于法律对个人敏感信息的界定,应用到人工智能领域,更应当首先明确人工智能领域个人信息的涵盖范围。
4.明确人工智能侵害个人信息的处罚机制欧盟《GDPR》对违规行为的罚款数额相当可观,最高达到2000万欧元或全球年营业额的4%。我国《网络安全法》对侵犯个人信息的惩罚额度仅规定100万元以下的罚款,对直接责任人员的罚款数额仅为1万~10万元,该惩罚额度不能够起到严惩和警示的效果。人工智能创造的经济价值是不可预估的,其对个人信息侵权造成的不只是经济损失,甚至包括精神损害,因此对侵权人的处罚数额应当进行详细的划分。我国可以借鉴欧盟对个人信息的保护,进一步完善处罚机制。对于违法收集、利用个人信息的行为规定合理的处罚数额,并将数据控制者和数据处理者纳入处罚范围。
四、结语大数据时代,人工智能离不开数据的深度挖掘和应用,数据是人工智能的血液,人工智能的深度应用也必将给人类的学习、生活、工作产生深层次的变革,随着人工智能学习的不断深入,人工智能对个人数据信息的应用也不断加强,人工智能对个人信息的收集、存储、传输、应用等形式是科技进步和发展的必然结果。我们无法阻止科技浪潮的来袭,但我们可以提供与之相适应的制度构建。计算机只能发出强制性指令——它们没有被编程来行使自由裁量权[19],即使强人工智能时代真的到来,对人工智能赋予“自由裁量权”,该“自由裁量权”也应当是限定性的权力。“智造时代”,应当尽快建立人工智能领域个人信息安全法律保护制度。当下《网络安全法》难以应对人工智能领域的个人信息安全保护,对个人信息的保护显得单一和不足。在即将到来的《个人信息保护法》中,应当明确该法是否适用于人工智能领域的个人信息保护,同时在相关条文中或者司法解释中明确人工智能领域个人信息安全的相关标准。从法律上明确人工智能侵犯个人信息权利的归责原则和责任承担方式,同时积极制定行业标准,建立人工智能领域个人隐私保护制度、用户选择制度。总之,人工智能领域的个人信息安全问题要综合考量,从技术、法律、政策等多维角度出发,结合人工智能的应用环境给予保护。
什么是网络安全
网络安全是用于保护关键系统和敏感信息免遭数字攻击的实践,也称之为信息技术(IT)安全。网络安全措施旨在打击针对联网系统和应用的威胁,无论这些威胁源自于企业内部还是外部。
2020年,全球数据泄露的平均成本为386万美元,美国为864万美元。这些成本包括发现和响应数据泄露的费用、停机成本和收入损失,以及对企业及其品牌的声誉造成的长期损害。网络犯罪分子以客户的个人身份信息(PII)为目标,包括姓名、地址、身份证号码(例如,美国的社会安全号码、意大利的财政代码)和信用卡信息,然后在地下数字市场上出售这些记录。PII遭泄露通常会导致失去客户信任,招来监管罚款,甚至是法律诉讼。
由不同技术创建的复杂安全系统以及内部专业知识的匮乏,会抬高这些成本。而拥有全面网络安全策略、通过最佳实践进行管理并使用高级分析、人工智能(AI)和机器学习,实现自动化运行的企业,则可以更有效地对抗网络威胁,能够在发生数据泄露时缩短其生命周期并降低相关影响。
通信人工智能:下一个十年的网络革命
原标题:通信人工智能:下一个十年的网络革命
今天,依托于移动通信网络的承载,全世界已经有超过50亿人,每天使用手机工作和生活;方兴未艾的物联网,更将为我们的未来创造无限可能。在改变世界同时,移动通信技术本身,也以每十年一代的速度,不断发展演进。经过30多年发展,从模拟到数字,从语音到数据,从电路交换到IP化,从封闭通信生态系统到赋能垂直行业的技术与生态,今日的现代移动通信系统,效率和性能已经不断逼近香农极限,并开始向太赫兹、空海天一体化、感知通信计算一体化等更前沿的领域迈进。其中,一个最受关注的领域,是移动通信网络与人工智能的深入融合。随着通信网络的日益复杂化,通信业务生态的日益多样化,人工智能已经成为网络与业务运行不可或缺的基础要素,并将在未来发挥越来越重要的作用。就在本月,来自于亚信科技、中国移动、中国电信、清华大学以及其他中外运营商和高校的资深专家们,以一篇《通信人工智能的下一个十年》,就移动通信与人工智能的协同发展,对沿革进行了梳理,对未来进行了展望。以下,是该文章的观点摘要,以及科技杂谈专访部分文章联合作者(亚信科技CTO、高级副总裁欧阳晔博士,工信部通信科技委常务副主任、中国电信科委主任韦乐平,清华大学智能产业研究院院长张亚勤院士)的重点内容整理。【一】我们先来看一张全景图:移动通信技术与人工智能在各自的早期阶段,都有着鲜明的、各自独立的发展路线。一个图中未提及,需要补充的细节是:早在1968年,YoshihisaOkumura就曾提出Okumura模型,基于实测数据对真实的无线信道进行数据建模与仿真,可以看作数据科学算法应用于移动通信系统的雏形。但是,受算法、算力、需求等多方面影响,在3G以前,在早期的移动通信系统里,人工智能一直没有真正地投入应用。直到1999年,在无线射频系统场景的规范中,3GPP正式纳入了COSTWalfish-Ikegami等信道模型。这也是一个重要的里程碑:数学算法第一次进入到移动通信的国际标准之中。到了4G阶段,人工智能与移动通信行业的融合又进了一步。一方面,2006年提出的深度学习,带动了人工智能技术发展的第三次浪潮;另一方面,在实现网络系统全IP化,开始向垂直行业赋能之后,移动通信网络自身也对人工智能有了更多的需求。联合作者之一、亚信科技CTO、高级副总裁欧阳晔博士特别提及到,最具代表意义的一个转折点是,从2008年开始,3GPP在移动通信标准中定义了一个新的理念:自组织网络(Self-OrganizingNetworks,以下简称SON)。简单来说,就是通信网络可实现自组织、自配置、自优化、自治愈。而以机器学习为代表的人工智能技术,正是实现SON的关键手段之一。只不过,当时SON还并不是移动通信标准的必选项,不是核心基础网元。而在实际的产业化和商业化进程中,运营商希望SON能真正开放,做到厂商中立、技术中立;设备商却希望通过SON加强自家设备的紧耦合。这个分歧,导致了SON的推进一直步履缓慢。而且,在这个阶段,通信网络从接口、流程、信令到整个网络生态,也都还不是按照智能化的理念来搭建的,所以网络与人工智能的融合对接不够友好。所以,虽然整个移动通信行业,都已经逐渐认识到了人工智能对移动通信网络的价值,但4G的实际商用过程中,这一认识始终未能转化为产业落地,而以Verizon和AT&T为代表的SON试水,也都未能取得理想成果。直到5G阶段,拐点终于到来。2017年2月,3GPPSA2正式定义了网络人工智能网元NWDAF。欧阳晔博士提到,这是移动通信历史上,第一次在核心网络架构里定义、标准化、并要求部署网络人工智能网元。它标志着,移动通信网络从底层结构层面开始,就已经按照自动化、智能化的理念,面向人工智能进行了重新设计。而在移动通信网络的另一条新兴发展路线O-RAN上,也已经定义了一个通信人工智能的网元:RIC(RadioIntelligenceController),并与核心网管理与编排MANO(Management&Orchestration)功能紧耦合。除此之外:2019年6月,国际电信联盟电信标准分局研究13组启动了机器学习用例的研究。同月,全球移动通讯系统协会GSMA开始了智能自治网络案例的白皮书工作。2020年7月R16正式冻结之后,3GPP也针对新的R17版本,正在继续推进人工智能相关的NWDAF,MDAF,QoE(QualityofExperience)等标准化课题研究。这些动作都意味着,从5G开始,通信网络与人工智能的融合,已经真正成为滚滚大潮。【二】可以看到,从1G、2G、3G、4G,到今天的5G,移动通信与人工智能的融合,是越来越深入,越来越紧密。其原因在于,移动通信网络本身正日益复杂化,通信业务生态也日益多样化。如今,通信网络基础设施和业务系统中需要面对诸多复杂场景,比如:无法用仿真模型模拟极其复杂的无线环境,指数级的IP交换与路由控制选择,主动性的网络支撑与业务保障,一客一策与一刻一策的网络个性化服务,……这些场景,已经远远超出了传统的人工规则预定义与执行的处理与管理能力。通信系统必须有一套自动化、智能化的体系和手段来保障网络与业务的运行与发展。"我们(指中国电信,科技杂谈注)在5年前就启动了新一代云网运营系统,但到现在难度还是很大。因为网络巨大无比,种类也多得不得了,5G以后就更复杂,不可能用人为的方式来管理这么复杂的资源。"联合作者之一,工信部科技委副主任、中国电信集团科技委主任韦乐平说,"只有用人工智能,才能帮助我们能够在复杂的环境下,正确地判断该做什么,而且预先提出预警,大大地提高效率。"同时,在5G阶段,CT与IT两大产业体系日益合流,传统的烟囱式的、高度紧耦合的通信网络系统,不断虚拟化和云化,这也为人工智能在移动通信领域的深入应用创造了条件。"5G一个重要的特点,就是互联网和通信网在协议层实现真正的融合,所以很多过去计算机领域的算法、互联网里面的技术,都可以更容易地使用到通信网络之中。"联合作者之一,清华大学智能产业研究院院长张亚勤院士说。而放眼未来,这个趋势还在不断加速。尤其是5G未来为垂直行业赋能过程中,人工智能将扮演更加重要的角色。比如5G切片,运营商要面向不同的用户,创建不同的网络环境,编排不同的流程,供给不同的网络资源,提供不同的应用和服务,实行不同的计费规则,并根据网络负载和用户需求的调整,进行随时调整。比如放飞一架无人机,从无人机的控制器、基站、传输、核心网络,到无人机飞行路径的基站,每一个节点都要统一拉通,进行实时的动态管理,才能确保网络QOS满足无人机的时延、带宽、抖动等综合要求。而从5G开始,移动通信网络将从以前的连接人与人,进化到连接万物,无论是业务的复杂度还是数据量的规模,都有指数级的提升。这样复杂的、海量的工作,只有依托智能化的网络,才有可能实现。"现在,网络的每一个层面、每一个领域,都需要人工智能,它已经是一个通用的使能技术。"韦乐平表示。【三】需要明确的一个问题是,移动通信系统与人工智能的融合,现在才刚刚开始。比如,通信人工智能相关的网元NWDAF或RIC,现在都还处在测试阶段,还没有开始在5G网络中大规模商用。而不同的厂商、标准组织与技术路线之间,网络接口的难以统一,也将制约通信人工智能的能力边界与发展进程。而且,绝大多数的运营商并不会只运营一张5G网络,而是还有2G、3G、4G、专网等其他网络并存。如何在多个网络中实现业务的统一编排,乃至将存量业务重新规范梳理,实现智能化的演进,都是极具实际操作难度的,甚至是在较长一段时间内几乎无法完成的艰巨挑战。所以,面向未来10年,移动通信与人工智能的融合发展,一定是一个长期的、渐进的过程。目前,通信国际标准组织已经开始对通信人工智能的发展成熟度进行初步的分级:以及在整个通信系统当中,不同成熟度的通信人工智能的应用等级:根据以上的分级,《通信人工智能的下一个十年》一文,对未来10年的通信人工智能发展进度作出了以下的预测。这个预测是否能如期实现,目前仍然有待时间来证实。在韦乐平看来,影响发展的很多因素,其实来自于技术发展本身之外。"人工智能只是技术手段,最重要的是现在没有统一标准,标准组织都是缺失的。"韦乐平说,"而且标准组织只会规定框架性的东西,很多具体的问题还是要靠运营商自己想清楚,跟制造商、支撑商等合作伙伴一起,坐下来讨论,达成共识,一起推进。"在他看来,目前比较好的办法,是借助一些业务上的痛点,来做借势切入。比如,现在光纤切断每年很多次,都是几十上百次,甚至全阻断,经常为网络带来巨大危险,而如果用人工智能,就可以预先判断,及时处理。(科技杂谈注:一个最近的案例,是2020年6月15日,因为一条光纤传输链路发生故障后,未能及时找到故障源,最终导致T-Mobile美国全网的语音和短信服务中断长达12小时)另一个"运营商刚需"的机会场景,是通过人工智能来降低5G的功耗。亚信科技正在和运营商共同试验,通过网络和用户的数据变化,用人工智能判断某一个5G基站的功率,在某个时间段是应该放大,还是缩小,甚至暂时关停省电,从而根据用户和业务的流动,自动地、实时地、精准地进行网络质量优化。这样,网络繁忙的时候不再拥塞,用户体验更好;空闲的时候尽量节电,省钱又环保。【四】最后,感兴趣的朋友,可以看一下人工智能在移动通信生态系统中的详细应用,以及未来10年的发展展望。(友情提示:本部分相对枯燥,非专业读者可以直接PASS)整体来看,人工智能在移动通信生态系统中的发展,可以分成网络基础设施、网络管理、电信业务、专网、跨领域融合这几个领域。具体来说:一、在网络基础设施领域,主要分为无线接入网、核心网、传输网、终端这四个方面。(1)无线接入网在物理层与数据链路层,典型的AI应用,包括但不限于以下功能:利用深度学习或强化学习算法来评估与预测信道质量、OFDM(OrthogonalFrequencyDivisionMultiplexing)符号在接收端的检测、信道编解码、动态频谱随机接入等。面向无线接入网的应用层,3GPP定义的SON的标准体系,旨在实现无线网络的自配置,自优化,自治愈。3GPPRAN3目前正在研究,让SON独立成为一个RAN逻辑实体或功能的可行性。欧盟5G-MoNArch项目组也已建议,无线侧可考虑设置一个独立的人工智能分析网络功能RAN-DAF,对5GNR的CU面进行数据分析和决策。而O-RAN的RIC也将会持续演进与加强,尤其在面向不同App类型时的智能策略控制,用于帮助运营商在业务编排层实现基于App特征的业务编排。(2)核心网3GPP路线的人工智能网元NWDAF:可对5G核心网络的移动性管理,网络服务质量QoS,以及5G核心网其他网元(例如UPF)进行智能化的管理、优化与提升网络质量与体验。O-RAN的无线智能控制器RIC:可利用AI的能力进行无线资源,移动性,无线连接,切换,无线QoS等业务和资源的管理。NWDAF未来将具备增强的网络性能优化与用户体验优化能力。目前相关的研究项目包括UE驱动的分析共享、基于NWDAF协助的QoS保障,话务处理,个性化移动性管理,策略决定,QoS调整,5G边缘计算,NF的负载均衡,切片SLA保障,可预测的网络性能等。3GPPSA5也在研究NWDAF如何将分析功能赋能给OAM或RAN,并参与MEC融合,以支持垂直行业的应用,为更多的垂直行业应用赋能。(3)传输网软件定义光网络(SDON)在动态恢复业务中断,保障网络容量和业务可靠性同时,跟大数据、人工智能、云网融合等技术结合,实现光网络的智能化管理。认知光网络CON(CognitiveOpticalNetwork)将通过认知决策系统CDS(CognitionandDecisionSystem)来控制和传播相关指令,管理传输要求和网络事件。目前SDON/CON与人工智能的结合上已经有一些研究成果,例如预测故障、减少恢复时间、改进光的信噪比等。IPv6网络和人工智能的结合也已经进入探索阶段。业界希望可以利用人工智能技术,对网络进行感知和灵活的路由配置,并对全网运行状态进行监测,智能化地识别网络异常;针对发现问题进行故障的根因定位,并且产生相关的最优策略。而在云网边端的资源分配和存储算力资源使用方面,业界也正在探索算力网络与IP网络的融合、云网融合等全新架构,通过人工智能来实现最优路由、最优算力分布,并保障算力的服务质量。未来10年,SDON/CON与人工智能有望结合更加紧密,逐渐实现"零接触"的认知光网络,实现光网络的完全自动化管理和控制。基于光网络的运维知识图谱将逐渐成熟,可以通过它快速定位传输问题,预测传输性能,进行传输参数的优化。对于传输的具体指标,例如调制阶数、误差修正、波长容量等,可以利用人工智能技术进行最优配置,保障传输的性能。基于IPv6的应用也将逐渐走向成熟,人工智能在网络路由、承载网的SLA保障、确定性网络方面发挥关键作用,实现IPv6乃至IPv6+的智能IP网络,满足B5G/6G业务场景的个性化需求。在云网融合方面,云网边端的算力资源将实现完全分布式的架构,按照业务需要提供无缝、高质量的算力资源,为终端、边缘的高阶人工智能应用提供资源保障。弹性算力网络/动态的云网融合,侧重出新的提供云计算服务的商业模式,可以利用区块链的智能合约等进行安全保障,解决用户的隐私问题,实现网络和计算资源的可变现能力。(4)终端基于终端的人工智能,主要包括终端和芯片的智能化。终端操作系统本身和应用层的App方面,已有一些智能化应用发展,但基于终端的人工智能对于网络基础设施的赋能,目前还在早期发展。这方面,一个比较典型应用是,通过终端芯片采集性能数据,汇报给SON系统或者网络管理系统OSS(OperationSupportingSystem),利用这两个部件的网络人工智能分析引擎,进行无线网络智能优化。未来,基于终端和芯片的人工智能技术,将通过对无线环境和内容的感知,来优化无线接入的接入和调度、系统速率、频谱效率、网络负载优化、无线安全性等环节,提升5G系统的性能,优化终端的使用体验,乃至催生新的场景案例。(5)未来10年展望在未来3-5年内,NWDAF将在5G核心网络中逐渐成熟商用;无线与核心网络优化也将借助SON实现以人工智能为驱动的智能网络优化目标。SON的商用部署方式将有可能以独立SON系统部署或融合进入5GOSS系统实现,RAN-DAF是否以独立网元形式定义还未有定论。未来5-10年,随着O-RAN的逐渐商用,RIC作为开放无线网络的智能控制器也将实现商用部署。二,在网络管理领域,主要有智能化网管,ENI引擎和网络运维支撑系统(OSS)三个方面。(1)智能化网管3GPPSA5在R16中开始定义的管理数据分析功能(MDAF),通过进行数据分析,帮助管理系统设置合理的网络拓扑参数进行网络配置,保障服务质量。同时,MADF在管理面也可以为SON赋能。下一步,MDAF将在覆盖增强、资源优化、故障检测、移动性管理、能量节省、寻呼性能管理、SON协作等多个场景方面的应用逐渐成熟;MDAF和网络设备(例如NWDAF)的交互也将得到完善。(2)ENI引擎ETSI于2017年定义了ENI系统,做为一个独立的人工智能引擎,为网络运维、网络保障、设备管理、业务编排与管理等应用提供智能化的服务,未来还将定义更多高级的应用,例如基于意图网络的节能、数据机制、ENI与运营商系统的匹配等等。(3)网络运维支撑系统(OSS)2019年,TMF在FutureOSS的研究报告中定义了未来OSS由"数据驱动",必须依赖人工智能,机器学习,自动化,微服务,业务优化紧耦合,必须具备敏捷,自动化,主动性,预测性,可编程性的特征。在定义未来OSS最重要的10个因素中,有4个因素和人工智能紧密相关:自动化闭环业务流程执行与保障,自动化闭环网络优化,AI驱动的客户互动,AI驱动的网络优化。目前,主流通信运营商已经在面向5G演进的OSS系统中,逐渐嵌入了AI平台或者功能模块。比如亚信科技为三大运营商搭建的5GOSS网络中台体系中,就包括了网络人工智能中台:它以数据中台的网络大数据为主要燃料,围绕网络生命周期中的规、建、优、维等场景,不断构建、推理、发布、沉淀出网络AI算法模型,为4/5G网络提供包括异常检测、容量预测、网络优化、根因分析、告警预测、故障自愈、业务编排、感知优化等网络AI功能。(4)此外,网络AI信令体系、网络数字孪生、编排系统也值得关注:网络AI信令体系:网络AI平台和各数据采集网元或模块;以及5GOSS的各个业务系统(例如网络编排,网络性能,网络资源,网络故障)进行互联互通的标准命令体系网络编排:网络的软件定义与云化趋势下,网络功能NFs管理将由软件定义的管理程序接管,并从面向专有硬件,向共享的计算与通信资源池的虚拟化管理转型。在5GOSS中,网络业务编排甚至可独立成一个子系统,负责5G各个虚拟网络功能VNFs(VirtualizedNetworkFunctions)构成的网络切片业务的编排与管理。目前,全球运营商的网络自动化与智能化编排能力还处于初级阶段,在技术和标准层面都需进一步完善。业务智能化编排的新型网络如何共存与协同工作,也是业界需思考的一个问题并需尽快形成一致行动目标。可以预计,随着通信人工智能和网络编排系统深度融合,网络(拓扑)编排、网络资源编排、网络业务编排三大能力将得到持续改进。(5)未来10年展望:在未来3-4年中,MDAF实现网管层面的部分数据分析功能。随着网络中台体系的建设,面向网络人工智能的网络AI中台将会在部分运营商的5GOSS系统中实现商用部署。网络AI信令体系作为人工智能与网络交互的语言,将AI能力注入到网络生态系统中。未来5-10年,随愿网络和ETSIENI网络体验与感知体系将逐渐成熟,会在5G中后期的网络基础设施架构中得到应用。数字孪生技术将与网络仿真和人工智能相结合,将网络全生命周期的规、建、优、维实现孪生化与智能化管理。三,在电信业务领域:目前,中国运营商正在BSS领域正引领基于智慧中台的技术演进:通过能力运营协同业务中台、数据中台、技术中台、AI中台等中台系统,完成面向最终用户与合作伙伴的IT服务与交互。其中,AI中台以人工智能算法为基础,通过场景化服务能力封装,为业务过程注智赋能。截至目前,人工智能技术通过AI中台体系,已经在BSS域的营销、销售、客户体验、客户服务、计费等多个业务领域及相应场景得到较好应用。而在10年,AI将在客户管理、套餐推荐、财务智能管理领域全面赋能,并且实现从初级到高级的过渡。从面向客户建立以人为本的全面客户体验,到面向电信运营企业建立更加运转高效的业务运营过程,直至新业务、新模式、新技术的快速创新兑付,都将起到关键作用。未来10年展望:部分通信运营商构建的技术中台体系将在未来3-5年内全面商用与成熟。其中的人工智能平台板块,将作为AI面向BSS领域注智与赋能的载体,全面推动客户运营与业务运营的智能化。电信业务涉及的某些细分领域例如智能客服、智能营销、智能推荐等,因为垂直行业中类似通用的应用经验,在未来的5-10年内会加速发展,可能提早实现到达L4或L5的高度智能化阶段。四,在专网领域:5G面向垂直行业除了提供公网服务,也可提供专网服务。而在5G专网中,通信人工智能也可提供一系列的智能化专有服务与安全保障。例如:可以用于虚拟专网中的网络切片SLA保障,进行通信传输性能、质量和资源的优化。对独立专网,人工智能体验感知算法可以对用户的感知体验进行实时或准实时评估,提供精准的QoS组合保障服务质量,实现差异化的智能运维服务。在专网中,也可以利用联邦学习、迁移学习等人工智能技术,完成5G切片异常诊断模型的云化管理和持续学习优化。另外,人工智能技术也可以对专网中的无线网络性能进行实时评估,通过与垂直行业应用平台的交互,自适应调整应用层的参数设置,用于提升视应用层的视频质量或者进行游戏加速。预计未来10年,通信人工智能通过与MEC以及与业务的结合以及算法的成熟,可以完全满足垂直行业对于高质量通信和网络安全的要求,将专网真正地变成高性能、安全可靠的专网。在垂直领域例如车联网、智能制造、高清视频/VR/AR、远程医疗、智慧城市,通信人工智能将帮助企业实现高级智能、乃至完全智能化的专网功能。未来10年展望:垂直行业专网在未来3-4年内属于商用建设初期,主要部署模式以虚拟专网形式实现。在此期间,人工智能面向虚拟专网的应用,将聚焦在5G专网切片的SLA保障、切片资源智能调度与优化、以及无线专网覆盖与性能优化等。在未来5-10年,混合专网和独立专网会逐渐部署并成熟,人工智能对独立或混合专网的应用将会聚焦在ToB业务精准QoS保障、ToC业务感知体验实时评估优化、智能网络智能运维AIOPS等。另外,人工智能技术通过与垂直行业的专网应用平台MEP(Multi-AccessEdgePlatform)的交互,自适应调整应用层的参数设置,保障边缘应用的服务质量。人工智能在行业专网的初级智能化阶段主要面向性能、质量与运维保障的智能化,在中高级智能化阶段更加面向高可靠、低延时、多并发连接的智能化控制与管理。通信人工智能系统的应用在安全性、鲁棒性、可解释性等方面在未来将进一步加强。尤其是人工智能中的联邦学习、区块链、隐私计算的技术组合,预计在通信生态各系统中会得以发展,用于解决通信生态系统与垂直行业之间的数据孤岛和安全隐私问题。五,在跨领域融合领域:一体化贯穿的电信业务流程,演进中的技术中台体系架构特征,以及业务与网络数据的融合分析运营,是驱动BSS与OSS系统进行深度融合的三大因素。通信人工智能在跨领域的融合智能化发展方面,也催生了多种应用场景:(1)客户体验管理(CEM)CEM是网络与业务跨领域融合的一个新领域,用人工智能结合心理学,建立一套能准确反应客户对通信网络与业务使用感知体验的算法模型体系,或者说"电信心理学算法"。借助CEM,运营商可以将网络体系的QoS体系与用户体验的QoE体系进行量化映射,从而弥合网络质量与用户真实体验之间的鸿沟实现从网络KPI指标为中心。到以客户体验为中心的网络业务服务转型。比如,亚信科技提出的CEM指数集,可结合通信领域用户级主观数据(例如NPS调研、客户投诉、主动拨测等)和客观数据(例如语音通话、上网、高清视频业务业务等质量指标),以及用户级通信、消费、服务等360度行为的画像分析,生成ECS电信心理学模型,用于即时性评价客户过程中任何一刻、任何一地、任何一种业务的瞬时体验质量。(2)PCF+(PolicyControlFunction+)3GPP从R7开始引入了PCRF网元,面向网络侧,对用户和业务QoS服务质量进行控制,为用户提供差异化的服务,并且能基于业务和用户分类,提供更精细化的业务控制和计费方式,以合理利用网络资源。目前,PCRF的策略规则还基于规则配置,没有人工智能应用。但随着5G业务的丰富,用户对于5G服务差异化需求的增加,PCF需要演进到PCF+,以提供全新的服务模式、业务场景或者商业模式。在这个过程中,人工智能/大数据能力在5GC(5GCore)的引入,将使PCF+的策略管控变得更加智能化。(3)未来10年展望:CEM和PCF+的架构与功能会持续发展,客户体验感知体系会从SLAELA体系不断演进。随着CEM的QoE的算法体系在未来逐渐成熟与完善,通信运营商将可以利用QoE算法体系来预测性评估和主动性管理用户的体验预期。而PCF+也将通过与OSS域和BSS域的交互,向用户提供更精准、更实时、差异化的策略控制。人工智能面向跨BSS与OSS领域的融合智能化,CEM与PCF会沿着BSS与OSS域融合的演进路线发展。其中,CEM将结合网络与业务的数据,在客户全生命周期旅程中实现对客户的网络与业务体验感知的闭环管理。客户体验与感知管理体系会从SLA往ELA体系演进。PCF通过与OSS域和BSS域的交互,可以面向网络、业务、客户提供精准、实时、个性化的策略与服务。人工智能与信息安全:新的革命与挑战
0分享至人工智能,是一种借鉴生物感知系统和神经系统来开发相应模拟算法的计算机技术,其主要特点是可从数据中学习特征并进行自我迭代训练。通常,人工智能算法往往需要大量的数据以及庞大的计算资源作为支撑。随着计算机硬件的迅猛发展以及互联网时代下海量信息的积累,这使得构建复杂的人工智能算法变得可能。2016年,由谷歌公司旗下DeepMind研发的围棋人工智能系统AlphaGo[1]以4比1的战绩打败了人类顶尖棋手李世石。自此,人工智能技术开始了爆发式发展。在网络安全领域,全球越来越多的公司正在尝试将人工智能、机器学习等集成到产品之中,智能化(Intelligence)、自动化(Automatic)都是网络安全领域的热词。我国于2017年7月8日印发《新一代人工智能发展规划》,标志着我国人工智能发展进入到国家战略层面。近日发布的“十四五”规划纲要中,共有6处提及人工智能,并将“前沿基础理论突破,专用芯片研发,深度学习框架等开源算法平台构建,学习推理与决策、图像图形、语音视频、自然语言识别处理等领域创新”视为新一代人工智能领域的重点攻关方向。近几年来,人工智能技术不断取得各种令人惊叹的成果,我国人工智能领域发展可谓突飞猛进,《中国人工智能发展报告2020》显示,过去十年全球人工智能专利申请量超52万件。中国专利申请量为389571件,位居世界第一,占全球总量的74.7%。人工智能被应用于越来越多的行业之中,尤其是在计算机视觉、自然语言处理、游戏对抗等领域。人工智能的应用在计算机视觉领域,主流的人工智能技术是卷积神经网络[2,3,4],卷积神经网络借鉴了生物视觉神经系统的工作方式,对视觉信息进行类似于视神经细胞一般的处理,之后作出相应的响应。相较于传统视觉算法,卷积神经网络取得了前所未有的成功。凭借其高准确率,已然成为该领域下各种复杂任务中最受欢迎的解决方案。例如在人脸识别、目标跟踪、自动驾驶等领域。在自然语言处理领域,基于人工智能技术的语言模型更深层次加深了计算机对语言处理的理解。例如谷歌于2019年推出的Transformer模型[5],其在推荐系统,用户行为分析,机器翻译等语言文本任务领域被广泛应用。在游戏对抗领域,主流的人工智能技术是强化学习[6,7],由于游戏有明确的规则,利用强化学习算法可以使智能体(计算机)在自我对弈中找到最优解。近年来,强化学习技术开始“出圈”,逐渐被应用到各种行业中,如机器人控制、自动驾驶等领域。由于人工智能算法极其复杂,且人工智能模型内部包含大量参数,这导致对其进行定量的分析变得极其困难。随着人工智能技术的广泛应用,尤其是在一些对信息安全极其敏感的行业中应用人工智能技术,例如人脸识别、自动驾驶、癌症诊断、国防与关乎人民生命财产安全息息相关的方面,如果不谨慎对待,这些安全隐患很可能在某个节点彻底爆发。所以,对人工智能技术的安全性研究变得尤为重要。人工智能自身的安全性以深度神经网络为代表的人工智能技术由于其算法复杂,参数众多,需海量数据驱动等特性使得其自身具有众多安全缺陷,这些缺陷主要发生在两个阶段:AI模型的训练阶段以及应用阶段。其中训练阶段攻击者主要利用AI模型的数据驱动特性,针对训练数据以及训练所使用的算法发起攻击[10],使AI模型偏离原本的训练目的。在应用阶段,攻击者主要利用AI模型本身特性来诱导模型作出错误推断。我们分别从攻击手段和防御手段两个角度来阐述在两个阶段中人工智能自身的安全性问题。模型训练阶段▶攻击手段训练数据集投毒——当前绝大多数AI算法的所有知识完全依赖于训练数据集之上:攻击者对数据集发起投毒,通过向数据集中引入不正确的标签,将AI系统的学习引到错误的方向上,以使模型将学到的特征模式与错误的标签相关联,从而实现为攻击者的目的。数据集通常包含数百万个样本,这些样本很多时候来自公共资源。即便数据集由私人收集,攻击者也可能入侵数据存储系统并向其引入中毒样本来破坏本来有效的数据集。已有报告指出,即使训练集中仅含有3%的数据污染,数据投毒依然可以让模型精确度下降11%。算法投毒——此种攻击方式是利用AI学习算法中的薄弱环节。算法投毒攻击针对联邦学习算法[11,12]的威胁尤其巨大。联邦学习在每个节点上训练一组小模型,之后将这些小模型汇总在一起,以形成最终模型。由于每个节点的私有数据仅在自身上被用于训练,因此可以保护他们的隐私。虽然联邦学习是一种解决用户数据因素的良好方案,但其容易受到算法投毒攻击。由于攻击者可以掌握那些受自己控制节点的设备运作,因此他们可以操纵节点上的运行数据和算法来毒化模型。▶防御手段使用可信任的数据集以及云托管平台。训练前应用检测机制,检查数据集是否被污染。设置准确度阈值,在每个训练周期后使用该阈值测试模型,若测试结果发生巨大变化,则极有可能存在数据污染。尽量使用离线训练,一方面攻击者无法从离线训练中得到即时反馈,另一方面也提供了审查数据的机会。模型应用阶段▶攻击手段白盒攻击——攻击者了解所要攻击AI目标的模型结构、参数等信息。通过利用这些信息,攻击者可以构造出针对AI模型的对抗样本,这些对抗样本往往可以使模型作出错误的判断,甚至诱导模型输出到攻击者指定的方向。此类攻击方式主要分为基于梯度的攻击手段(FGSM[13],PGD[14]),基于优化的攻击手段(CW[15]),基于决策面的攻击手段(DeepFool[16])。黑盒攻击——攻击者无法了解目标AI所使用的模型以及参数,模型内部是否具有防御手段等信息,攻击者只知道模型的输入以及输出。黑盒攻击相比白盒攻击要困难许多:因为缺少关于模型的信息,黑盒攻击往往需要对模型进行大量查询,根据查询本身以及模型输出结果不断执行迭代以此来重构模型本身的行为,从而构建对抗样本。现实中,攻击者遇到的往往是黑盒攻击。黑盒攻击算法相较于白盒攻击更具有通用性。近年来,已涌现出很多优秀的黑盒攻击技术:如模拟攻击[17],这种攻击手段允许攻击者只需要少量查询,根据这些查询结果以及一些经典的AI模型来训练并构建“代理网络”,待训练结束之后代理网络能够逼近目标AI模型的输出。模型替换——攻击者使用中毒模型代替正常模型。这一点很容易由传统的网络攻击实现。完成训练的模型也是计算机文件,与图像或PDF文档没有什么不同。攻击者可以入侵持有成熟模型的系统,然后更改模型文件或将其完全替换为受攻击者控制的中毒模型。▶防御手段可在AI模型的训练集中增添一些被干扰过的数据,使模型对含有噪声的样本更加具有鲁棒性。或使用网络蒸馏技术,在同一个训练集上训练多个不同的AI模型,最后使用这些模型的平均值作为输出,此种方法需要大量的资源,但也有更高的精确度与较高的鲁棒性。在模型成型之后,亦可对输入的数据进行一定的去除噪声预处理(如使用高斯平滑滤波器等)来达到防御对抗样本的目的。人工智能在信息攻防战中的应用攻击方人工智能技术具有可自我学习数据特征,算法结构具有一定通用性的特点,借助该特点很多传统的攻击手段不仅可大幅提升攻击命中率,还可以摆脱很多繁琐且的且昂贵的人工成本。不仅如此,当下最为先进的人工智能技术还可生成逼真的虚拟数据(图片、视频、音频、文本等)。▶数据伪造与篡改:2014年,由IanJ.Goodfellow等人提出了基于深度学习的生成对抗网络模型[19]。生成对抗网络由一个生成网络与一个判别网络组成。生成网络从数据表征的潜在空间中(latentspace)中进行随机取样作为输入,其输出结果需要尽量模仿训练集中的真实样本。判别网络的输入则为真实样本和生成网络的输出,其目的是将生成网络的输出从真实样本中尽可能分辨出来。两个网络相互对抗、不断调整参数,最终目的是使判别网络无法判断生成网络的输出结果是否真实。2017年,在Reddit论坛上出现了使用生成对抗网络对视频中人物进行换脸的技术,名为Deepfake,只要有脸部照片,这项技术就能够将视频中的人脸替换成任意一个目标人脸,而且效果十分的逼真,肉眼难辨真假。随着Deepfakes的兴起,已有人将该技术应用到不法行业上,根据华盛顿邮报的一篇报道,在英国已出现使用AI合成语音进行诈骗的案例;在微信和qq等社交网络上已出现兜售基于Deepfake技术“定制”色情视频的团伙。不止在图像与语音领域,由OpenAI创建的GPT-2模型可模拟人类不同的写作风格,只需根据一小段主题便可完全自主生成逼真的假新闻。利用AI进行数据伪造正在冲击着我们“眼见为实,耳听为实”的世界,给社会安全、网络安全、国家安全等众多领域带来前所未见的冲击。在人脸、语音等生物特征识别已经大范围普及的当今社会,发展区分真假数据的技术已经势在必行。2019年6月,考虑到AI伪造数据在网络上的快速传播对民众产生误导,将会对2020年总统大选产生不可逆的影响,美国众议员提议修改现行法律,在立法层面对AI数据伪造进行相关的打击。同年,由Facebook领衔的相关学校和公司在更是投入1000万美元举办Deepfake检测挑战赛。▶定制化网络钓鱼:网络钓鱼是—种网络攻击手段,指具有恶意动机的攻击者对自己进行伪装,利用欺诈性的电子邮件诱使用户在伪造的网站上输入敏感信息。▶智能化漏洞搜索:随着如今计算机系统与应用软件的日益复杂化,新发现的安全漏洞也在逐年增加。传统的漏洞搜索需要由具备信息安全相关经验的安全专家对代码进行大量分析,人工费用昂贵,操作繁琐且耗时。安全漏洞检测的根基是大多数存在问题的代码具有相似性,而深度学习技术能够高效学习数据中的特征表示和复杂的非线性结构,利用深度学习来建模漏洞的结构以及相关的语义特征之后,AI系统会自动对代码进行对比,评估存在漏洞的可能性。相较于传统的漏洞检测技术,AI的使用可以更好地对漏洞特征进行建模,且生成的模型具有良好的泛化性能。这极大的提高了漏洞挖掘的时间与效率,且节约了相当可观的人力物力资源。因此使用基于深度学习的AI技术进行系统的漏洞挖掘前景巨大。当下结合AI进行漏洞检测的方法主要集中于以下几点:a.从二进制代码中检测漏洞:将二进制文件看作字节序列或者机器指令的集合,采用处理对象序列的深度学习模型(如递归神经网络)进行特征提取。在模型的训练阶段可使用类似语言模型的无监督训练方式,从而避免了对大量数据进行标注。之后进行有监督的微调,使模型在训练出的嵌入空间中能够表征漏洞[21]。b.将二进制代码转换为控制流程图(如CFG,AST等)。结合AI的模型会对这些流程图进行建模分析,以便利用代码中的语义以及句法结构的信息。譬如使用图神经网络(GNN)对代码的流程图进行图嵌入,训练完成之后的模型便可基于漏洞代码所具有的独特逻辑结构进行发掘[22]。c.使用生成对抗网络技术对漏洞数据集代码进行增强,生成对抗网络技术可以对数据核心特征进行建模并找到其编码空间,从编码空间中抽取的样本可能会发现之前没有见过的全新漏洞,这为漏洞发掘提供了全新的思路与方向。水能载舟,亦能覆舟,智能化的漏洞搜索可以是黑客的攻击手段,当然也可以成为防御利器,只要在产品发布前,将漏洞查找出来,危机自然能消弭于无形。深入网络安全行业,极光无限率先布局,以AI赋能实战,助推网络安全智能化。在无人区探索两年以后,我们建立了大型漏洞数据集,提出了一种利用神经语言模型结合图神经网络的方法来进行漏洞的识别,推出了AI自动化漏洞挖掘产品——维阵,对未知漏洞具备检测、预警、快速响应和处置等主动防护的能力,助力未来网络安全防御体系全局化、整体化发展。防御方▶借助AI检测WEB攻击当前,大多数针对WAF恶意请求的检测主要集中于撰写规则或正则表达式。但面对海量的恶意请求,一方面不同的恶意请求具有各种不同的规则,想要编写万能的正则表达式几乎不可能实现,且机械式的规则往往会造成误判。另一方面,基于规则的检测无法发现新型的攻击。针对以上两点,可以使用长短期记忆网络(LSTM)来解决。一般情况下在日志中关键词的二义性往往是造成误判的主要原因。针对字符级别的LSTM可以根据上下文判断关键词在出现之处的具体含义。也因如此,使用LSTM的WAT攻击识别也具备了一定对未知攻击的识别能力,由于LSTM将每个字符作为特征,且字符之间具有上下文联系,对于某些掺杂了特殊字符之后的命令,使用LSTM的模型亦有能力将其识别出来。除此之外,也可使用基于词嵌入的深度学习技术进行恶意请求识别,该方法首先会使用词嵌入对数据包进行降维处理,此举旨在减少数据包的有效荷载维数,之后使用深度卷积神经网络对潜入之后的词向量提取局部特征,最后于头部特征一起送入LSTM学习全局时态特征,从而识别恶意请求。相较于简单的字符级LSTM,此方法虽然复杂,但检测精度也更加高效[24]。▶自动化渗透测试渗透测试是对系统进行受控攻击,进而评估其安全性,是提高网络防御能力的关键方法之一。但是,网络渗透测试需要专业的人员以及大量的时间。高效解决此问题的一种方式是将人工智能技术应用于渗透领域,以使渗透测试过程自动化。已有研究证明了强化学习(RL)在自动渗透测试中的应用[25]。RL是一种AI优化技术,其主要优势在于它不需要环境模型即可生成攻击策略,而是通过与环境交互来学习最佳策略。强化学习将网络的已知配置作为状态,将可用的扫描作为操作,由网络上的“主机价值”来确定奖励,并使用非确定性操作对机器的扫描结果建模。模型根据获得的奖励以及过去的经验来不断调整自身的行为。以获取最大化的奖励。研究发现,只要了解网络拓扑以及可用的扫描和漏洞利用的知识,强化学习算法能够找到针对各种不同网络拓扑的最佳攻击路径。(图5:结合深度学习的强化学习,代理使用神经网络评估更新自身的策略)▶流量数据包自动分类众所周知,计算机网络的保护与维护的成本日益居高不下,并且大多数保护措施无法针对0day漏洞作出高效响应,若对流量包进行深度分析又会引起侵犯用户隐私等法律问题。综上,结合机器学习的流量探测算法可以只从拦截的流量中提取元数据,并使用这些数据建立数据分类模型,无需对流量包进行深度分析,从而在一定程度上避免了侵犯用户隐私等问题,并且这种流量检测算法理论上拥有检测0day漏洞的能力。该论文[26]提出了一种通用流量分类框架,首先根据可用信息提取其元数据,之后使用并行聚类算法对信息进行聚合以实现实时处理,最后根据聚类结果创建可视化模型以便安全分析人员或网络管理员来识别网络内部的各种情况。总结人工智能作为第四次工业革命的核心应用技术之一,正以高度自动化和自主性的特性,创造出更为巨大的利益。与此同时,伴随着“AI-as-a-Service”的普及,AI应用所需专业技能与知识门槛的降低,一定程度上增加了AI被恶意使用和滥用的可能性,进一步扩大了以人工智能为载体的安全威胁攻击面。简言之,人工智能在塑造一个更广阔前景的同时,也因攻击者的日趋深入,而成为诱发新数字、社会和政治威胁的额外动力。归根结底,对安全从业人员和安全公司而言,人工智能对信息安全来说无疑是一把双刃剑:其带来巨大技术革新的同时,亦带来了前所未有的全新挑战。一方面,由于人工智能是一门包含了计算机科学、数学、生物等方面的综合性学科,如何掌握并使用人工智能,并将其应用在安全相关领域应成为传统信息安全从业人员以及公司的关注重点。同时,针对数据的采集以及数据隐私问题更应该被严格对待,将网络安全和数据保护放在首位,这要求相关部门、企业、研究人员进行协作,在保证数据的安全及隐私的同时,促进相关创新、法规建设、提高认识和开展研发活动,共同创建人工智能安全发展的健康环境。引用文献:[1]MasteringthegameofGowithdeepneuralnetworksandtreesearch.[2]LeCun,Yann,etal."Gradient-basedlearningappliedtodocumentrecognition."ProceedingsoftheIEEE86.11(1998):2278-2324.[3]Krizhevsky,Alex,IlyaSutskever,andGeoffreyE.Hinton."Imagenetclassificationwithdeepconvolutionalneuralnetworks."Advancesinneuralinformationprocessingsystems25(2012):1097-1105.[4]He,Kaiming,etal."Deepresiduallearningforimagerecognition."ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2016.[5]Vaswani,Ashish,etal."Attentionisallyouneed."arXivpreprintarXiv:1706.03762(2017).[6]Mnih,Volodymyr,etal."Playingatariwithdeepreinforcementlearning."arXivpreprintarXiv:1312.5602(2013).[7]Brown,Noam,etal."Combiningdeepreinforcementlearningandsearchforimperfect-informationgames."arXivpreprintarXiv:2007.13544(2020).[8]Brown,TomB.,etal."Languagemodelsarefew-shotlearners."arXivpreprintarXiv:2005.14165(2020).[9]CLIP:ConnectingTextandImages[10]LearningtoConfuse:GeneratingTrainingTimeAdversarialDatawithAuto-Encoder.JiFeng,QizhiCai.ZhiHuaZhou.[11]McMahan,Brendan,etal."Communication-efficientlearningofdeepnetworksfromdecentralizeddata."ArtificialIntelligenceandStatistics.PMLR,2017.[12]Yang,Qiang,etal."Federatedmachinelearning:Conceptandapplications."ACMTransactionsonIntelligentSystemsandTechnology(TIST)10.2(2019):1-19.[13]Goodfellow,IanJ.,JonathonShlens,andChristianSzegedy."Explainingandharnessingadversarialexamples."arXivpreprintarXiv:1412.6572(2014).[14]Madry,Aleksander,etal."Towardsdeeplearningmodelsresistanttoadversarialattacks."arXivpreprintarXiv:1706.06083(2017).[15]Carlini,Nicholas,andDavidWagner."Towardsevaluatingtherobustnessofneuralnetworks."2017ieeesymposiumonsecurityandprivacy(sp).IEEE,2017.[16]Moosavi-Dezfooli,Seyed-Mohsen,AlhusseinFawzi,andPascalFrossard."Deepfool:asimpleandaccuratemethodtofooldeepneuralnetworks."ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2016.[17]Ma,Chen,LiChen,andJunhaiYong."MetaSimulator:SimulatingUnknownTargetModelsforQuery-EfficientBlack-boxAttacks."arXivpreprintarXiv:2009.00960(2020).[18]Yin,Hongxu,etal."SeethroughGradients:ImageBatchRecoveryviaGradInversion."arXivpreprintarXiv:2104.07586(2021).[19]GenerativeAdversarialNetworks.IanJ.Goodfellow,JeanPouget-Abadie∗,MehdiMirza,BingXu,DavidWarde.SherjilOzair,AaronCourville,YoshuaBengio.[20]Weaponizingdatascienceforsocialengineering:AutomatedE2EspearphishingonTwitter.[21]DeepLearningforCyberVulnerabilityDiscovery:NGTFProjectScopingStudy.deVelO,HubczenkoD,KimJ,MontagueP,XiangY,PhungD,ZhangJ,MurrayT,LeT,WenS,LiuS,NguyenV,LinG,NguyenK,LeT,NguyenT,NockR,QuL.[22]NeuralNetwork-basedGraphEmbeddingforCross-PlatformBinaryCodeSimilarityDetection.XiaojunXu,ChangLiu,QianFeng,HengYin,LeSong,DawnSong.[23]NeuralReverseEngineeringofStrippedBinaries.YanivDavid.UriAlon.EranYahav.[24]WEDL-NIDS:improvingnetworkintrusiondetectionusingwordembedding-baseddeeplearningmethod.Cui,J.,Long,J.,Min,E.,Mao,Y.[25]AutonomousPenetrationTestingusingReinforcementLearning.JonathonSchwartz.[26]NetworkTrafficAnomalyDetectionUsingShallowPacketInspectionandParallelK-meansDataClustering.RaduVelea.CasianCiobanu.LaurentiuMargarit.IonBica.特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端利用人工智能解决企业的网络安全问题
网络安全相关风险仍然是企业的主要风险来源之一。全球疫情加剧了这一情况,迫使公司加快数字化举措,以更好地支持远程劳动力。
这不仅包括支持分布式劳动力的基础设施,还包括通过机器人、数据分析和新应用实现的自动化。不幸的是,这种扩张的数字足迹导致了网络犯罪攻击的增加。
如果您正在考虑为您的业务提供新的网络安全解决方案,了解传统的预防方法与现代人工智能解决方案的区别是很重要的。
传统的网络安全方法对企业仍然可行吗?在当今更加分布式的环境中,端点的激增使得传统的网络安全方法(即创建边界来保护基础设施)效率大大降低。事实上,据估计,至少有一半的攻击中,入侵者已经在里面。
手动数据收集和分析过程实施基于规则的工具或有监督的机器学习系统来打击网络攻击是无效的。在设备上收集并添加到网络的日志数量继续增加,可能会超过传统的收集机制。PB级的数据很容易收集,必须送回中央数据湖进行处理。
由于带宽限制,通常只分析小样本。这可能只占数据的5%,因此每2000个数据包中就有一个可以被分析。这是分析网络安全威胁数据的次优方法。
大多数企业只能查看其数据的一小部分。这意味着它们可能缺少有价值的数据点,这些数据点有助于识别漏洞和防止威胁。分析师可能希望通过整合工具和数据来丰富他们对网络内外发生的事情的看法,但这通常是一个手动过程。
缺乏人工智能能力会导致更长的威胁检测时间据估计,这可能需要最多277天来识别和遏制安全漏洞能够对感知到的威胁进行快速分类和迭代是至关重要的,但通常也需要人工干预。全球网络安全专业人员短缺加剧了这些问题。
被监督的ML系统也无法检测零日威胁,因为这是一种“回顾”的网络安全方法。这些传统的软件驱动方法可能会阻碍安全团队对网络犯罪做出快速反应。
解决威胁检测挑战的更好方法是使用人工智能技术。例如,银行机构可以实施人工智能网络安全解决方案,以自动识别哪些客户交易是典型的,哪些是潜在的威胁。
人工智能如何改变现代网络安全解决方案?网络安全专业人士面临着一场艰苦的战斗,以确保其组织的安全,这已不是什么秘密。传统的威胁检测方法成本高、反应性强,在安全覆盖方面留下了很大差距,特别是在运营和全球分布的组织中。
为了应对当今的网络威胁,各组织需要能够提供100%可用数据可见性以识别恶意活动的解决方案,以及帮助网络安全分析师应对威胁的洞察。
人工智能网络安全用例包括:
分析师增强技术,使用预测分析来帮助查询大型数据集。使用人工智能算法挖掘网络数据以识别和阻止潜在威胁的用户行为风险评分。通过更快、自动化的AI模型更新,减少检测威胁所需的时间。采用企业人工智能网络安全框架NVIDIAMorpheus 使企业能够观察其所有数据,并以以前无法实现的规模对整个网络中的每台服务器和数据包进行人工智能推断和实时监控。
Morpheus管道与NVIDIA加速计算平台相结合,使网络安全数据的分析速度比仅使用CPU服务器的传统解决方案快几个数量级。
此外,Morpheus预构建的用例可以简化现有安全基础设施的扩展:
数字指纹使用无监督人工智能和时间序列建模为网络上运行的每个用户帐户和机器帐户组合创建微目标模型,检测假扮机器的人和假扮人类的机器。网络钓鱼检测分析整个原始电子邮件,将其分类为火腿、垃圾邮件或网络钓鱼。敏感信息检测查找并分类泄漏的凭据、密钥、密码、信用卡号、金融帐户信息等。加密挖掘检测解决了69%以上的企业报告的加密挖掘恶意软件导致恶意DNS流量和计算资源过度利用的问题。该模型确定加密挖掘、恶意软件、机器学习和深度学习工作负载等。有关详细信息,请参阅NVIDIAMorpheus用例的完整列表.
下一步要开始使用Morpheus,请参阅NVIDIA/morpheusgithub回购。
要了解Morpheus如何帮助公司利用人工智能改善其网络安全态势,请注册免费在线MorpheusDLI课程或者查看以下按需GTC会话:
构建人工智能增强的下一代网络安全解决方案:了解Morpheus如何在现代数据中心、云和混合云环境的结构中提供完整的可见性。通过加速数据科学转变网络安全:了解Morpheus如何提供必要的基础和抽象,使开发人员能够编写使用最新机器学习和神经网络模型的高性能管道。对于现场会议,请参加9月19日至22日的GTC,探索AI、数据科学、网络安全等领域的新技术和研究。
了解人工智能网络安全的最新发展[A41142]:了解NVIDIAMorpheus的最新创新,将在2022年秋季发布,并了解当今的安全分析师如何在日常调查和工作流程中使用MorpheusBartleyRichardson,NVIDIA网络安全工程总监.从数据供应链中获取网络弹性[A41145]:了解NVIDIA如何通过将零信任架构与人工智能和数据分析相结合来应对这些挑战,通过DPU、GPU和人工智能SDK和工具的应用,以数据优先的方式应对我们的联合对手。了解网络人工智能的应用前景DanielRohrer,NVIDIA软件产品安全副总裁.加速下一代网络安全研究[A41120]:了解如何应用预构建的数字指纹模型来分析每个用户和机器的行为,分析原始电子邮件以自动检测网络钓鱼,查找和分类泄露的凭据和敏感信息,分析行为以检测恶意代码和行为,并利用图形神经网络识别欺诈行为KillianSexsmith,NVIDIA高级开发人员关系经理.
聚焦十大领域,《人工智能赋能网络安全白皮书2023》发布
原标题:聚焦十大领域,《人工智能赋能网络安全白皮书2021》发布人工智能正在成为全面推进城市数字化转型的重要驱动力,其在打造智能经济、创造智享生活、塑造智慧治理上发挥重要作用,对社会进步和经济发展带来深远影响。而随着人类社会迈入万物智能互联时代,网络安全成为重要挑战之一。得益于人工智能技术领域的持续创新,人工智能不仅将变革制造、金融、医疗、商业等各个行业,也将成为网络安全产业创新和发展的强大助推器。
7月9日,在2021世界人工智能安全高端对话上,观安信息联合赛博研究院共同发布《人工智能赋能网络安全白皮书2021》,深入研究人工智能如何为网络安全带来变革,全面呈现人工智能在各个网络安全领域的应用模式与实践,共同展望人工智能赋能网络安全的未来趋势。
报告指出,随着全球进入数字化时代,网络风险呈指数级增长,网络安全威胁趋向智能,网络安全人才缺口大,现有网络安全工具存在局限性。而人工智能可从六大方面为网络安全带来变革:一是人工智能可以检测和预测新兴的未知威胁;二是人工智能使组织能够更快地对网络威胁做出响应;三是人工智能可大幅降低检测和应对网络威胁的成本;四是人工智能显著提高安全分析师的工作效率;五是人工智能能以高重复性减少人为错误;六是人工智能可降低专业技能要求。
报告分十个重点领域详细介绍了人工智能赋能网络安全的模式与实践,包括网络安全、终端安全、身份与访问安全、应用安全、数据安全、物联网安全、移动安全、工业互联网安全、业务安全和网络内容安全。报告具体分析了每个网络安全领域当前面临的挑战、问题与痛点,详细阐述了人工智能如何赋能各个具体领域,并分别通过具体场景案例介绍了人工智能在网络安全中的应用。例如,观安信息基于文本和行为分析的DGA域名检测技术可排查网络中的木马扩散、挖矿、勒索、被恶意监视等威胁,其基于知识图谱与机器学习的互联网业务风控防护系统可高效率、高准确性的识别高风险平台操作与交易行为,在各个阶段及时实行针对性的业务防范措施;BlackBerry的基于人工智能的EDR解决方案可为企业提供完全集成的自动化事件响应能力;Mobilelron基于机器学习的移动威胁检测技术可为用户提供威胁检测和高级别的威胁响应。
报告认为,虽然利用人工智能技术可为网络安全防御带来多方面的能力,但目前人工智能不能解决所有的网络安全问题,其也存在自身的局限性,并且在人工智能的应用过程中,存在亟需客服的障碍和问题,例如预测准确性、数据完整性等问题。但在未来,人工智能技术的飞速发展将推动预测算法的精度持续提高,技术投入的成本不断下降,数据源的可用性不断增加,具有更强的技术可解释性。这都将驱动人工智能更好地赋能网络安全,助力城市数字化转型时代网络安全防御体系的构筑。
上海赛博网络安全产业创新研究院是在上海市经信委和上海市社团局共同指导下的民办非企业,是国内专业从事网络空间政策和产业研究的重要智库观安信息是一家提供大数据+泛安全产品与服务的高新技术企业。公司聚焦数据安全、网络空间安全、5G安全、人工智能安全、工业互联网安全及公共安全等核心方向,为运营商、政府、金融、电力、公安、医疗等行业用户提供全面的信息安全解决方案。
(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)返回搜狐,查看更多
责任编辑: