博舍

当前人类社会面临的人工智能安全问题有哪些 人工智能的安全性问题有哪些

当前人类社会面临的人工智能安全问题有哪些

在科技发展史上,科学技术的每一次进步和变革都会不可避免地带来“双刃剑”效应。

人工智能技术也是如此,它的提出到应用正在以惊人的速度改变着我们的生活方式,逐步渗透到了工业制造、家居、教育、医疗、物流等各行各业中。

虽然人工智能尚处于发展阶段,但这项技术可能带来的安全、伦理、隐私等一系列问题早已引起了人们的关注,这些问题直接影响着人们对人工智能技术的信任程度,随着智能革命的发展人们的生活也将迎来一场翻天覆地的变化。

当前人类社会面临的人工智能安全问题:鉴于人工智能算法与系统的特点,因人工智能技术的客观原因导致的安全问题主要源于以下三点。

(1)系统安全层面。集中表现为基础安全技术缺陷、智能硬件的系统漏洞,以及当前智能技术和产品供应链条的复杂性。

(2)算法透明度与可解释性层面。AI技术本身具有一定的不确定性,由于人类没有充分认识到人工智能算法的自主学习与决策过程,以深度学习为代表的人工智能算法经常被视作一个无人理解的黑箱。因此,人工智能算法可解释性和透明度的严重缺失,可能给人类社会带来巨大的影响。

(3)数据使用和隐私保护层面。人工智能的不断发展是建立在大量的个人数据的记录和分析之上的,所以如何在这个过程中保障个人隐私,合理地使用个人信息则是重中之重。

上述三个问题本身就是巨大的风险,同时由其引发的归责问题、监管问题乃至国家安全问题、社会安全问题等也都是人工智能发展面临的挑战。

安全是任何科技能够长足发展的前提,如何增加社会对科技的信任,如何让科技的发展遵循伦理道德要求都是需要考虑的问题。

好啦,这次的分享就到这里,我们下期再见!欢迎在评论区补充和留言。

人工智能应用面临7大数据安全威胁

自动驾驶技术、智能助理、人脸识别、智能工厂、智慧城市等人工智能技术现已广泛落地,这些令人难以置信的技术正在快速改变我们的生活。但相关领域安全事件也在快速增加,这使得研究人员和使用者对人工智能的安全性担忧不断提高。人工智能应用带来的红利和其引发的安全隐患,犹如一个硬币的两面,需要全行业高度关注并找到有效的应对方法。

日前,安全研究人员梳理总结了目前人工智能技术在实践应用中经常要面对的7个数据安全威胁。

威胁1

模型中毒

模型中毒(Modelpoisoning)是一种对抗性攻击形式,旨在操纵机器学习模型的结果。威胁行为者可以尝试向模型中注入恶意数据,进而导致模型对数据进行错误分类并做出错误的决策。例如,工程图像可以欺骗机器学习模型,将它们分类到与人类最初分类不同的类别中(例如,将猫的图像标记为老鼠)。研究发现,这是一种欺骗AI系统的有效方法,因为在输出之前,不可能判断特定的输入是否会导致错误的预测。

为了防止恶意行为者篡改模型输入,企业组织应该实施严格的访问管理策略来限制对训练数据的访问。

威胁2

隐私泄露

隐私保护是一个敏感的问题,需要额外的关注和重视,尤其是AI模型中包含有未成年人的数据时,问题就更复杂了。例如,针对青少年的一些借记卡选项,银行必须确保其安全标准符合监管合规要求。所有以任何形式或途径收集客户信息的公司都需要制定数据保护政策。这样,客户就可以知道组织如何处理他们的数据。然而,用户如何知道他们的数据是否流入了人工智能算法的应用中?很少(或者可以说几乎没有)隐私策略包含这些信息。

我们正在步入人工智能驱动的时代,对于个人来说,了解企业如何使用人工智能、人工智能的功能及其对数据的影响将变得非常重要。同样地,攻击者可能会试图使用恶意软件窃取包含信用卡号码或社会安全号码等个人信息的敏感数据集。企业组织必须定期进行安全审计,并在人工智能开发的所有阶段实施强有力的数据保护实践。隐私风险可能发生在数据生命周期的任何阶段,因此为所有利益相关者制定统一的隐私安全策略非常重要。

威胁3

数据篡改

数据操纵、暴露和篡改所带来的风险,在AI规模化应用背景下正在被不断放大,因为这些系统需要基于大量数据进行分析决策,而这些数据很容易被恶意行为者操纵或篡改。此外,算法偏见是人工智能规模化应用中所面临的另一个主要问题。人工智能算法和机器学习程序应该是客观和公正的,但事实却并非如此。

人工智能算法的数据篡改威胁是一个巨大的问题,这没有简单的解决方案,但它需要引起重视。如何确保输入算法的数据是准确、可靠且不被篡改的?如何确保数据不会以令人讨厌的方式使用?所有这些问题都是非常现实的问题,但目前行业还没有找到明确的答案。

威胁4

内部威胁

就数据安全而言,来自内部威胁无疑是最危险的一种,也是代价最高昂的一种类型。根据最新的《内部威胁成本:全球报告》显示,在过去两年中,内部威胁事件的数量上升了44%,每起事件的平均损失成本为1538万美元。

内部威胁之所以如此危险,是因为他们的动机不一定是金钱,还可能是出于报复、好奇心或人为错误等其他因素。正因如此,它们比外部的攻击者更难预测和阻止。

对于那些涉及公民健康的公司来说,内部威胁无疑是更有害的。以医疗保健服务商HelloRache为例,该公司使用了AI模式的虚拟记录员(virtualscribes,协助医生处理计算机相关任务的助手)工具,因此他们可以远程协助医生护理病人,做病情记录工作。但如果内部人员找到了方法,可能会导致系统被错误连接,甚至可以监控获取患者的医疗信息。

威胁5

针对性蓄意攻击

一项研究数据显示,86%的企业组织开始将人工智能作为未来数字化发展的“主流”技术,并加大投资各种数据驱动的AI技术,以帮助企业做出更好的决策、改善客户服务并降低成本。但有一个问题:对人工智能系统的蓄意攻击正在增加,如果没有适当的控制措施,它们可能会为组织带来超百万美元的损失。

“蓄意攻击”是指有目的地通过侵入人工智能系统来破坏一个组织的业务运作,目的是获取领先于对手的竞争优势。在蓄意攻击场景中,对AI和ML的数据安全威胁可能尤其具有破坏性。因为这些系统中使用的数据通常是专有的,具有很高的价值。当人工智能系统遭到针对性的蓄意攻击时,其后果不仅仅是数据被窃取,而是公司的竞争能力被破坏。

威胁6

大规模采用

人工智能是正在快速增长的行业,这意味着它们仍然很脆弱。随着AI应用越来越受欢迎,并在世界范围内被采用,黑客将会找到新的方法来干扰这些程序的输入和输出。AI通常是一套复杂的系统,以至于开发人员很难知道他们的代码在各种应用情况下会如何表现。当无法预测会发生什么时,就很难阻止它的发生。

保护企业免受大规模应用威胁的最佳方法是结合良好的编码实践、测试流程,并在发现新漏洞时及时更新。当然,不要放弃传统形式的网络安全预防措施,例如使用托管数据中心来保护服务器免受恶意攻击和外部威胁。

威胁7

AI驱动的攻击

研究人员发现,恶意攻击者正在将人工智能武器化,帮助他们设计和实施攻击。在这种情况下,“设计攻击”指的是选择一个目标,确定他们试图窃取或破坏什么数据,然后决定一种传输方法。非法攻击者可以使用机器学习算法寻找绕过安全控制的方法来进行攻击,或者使用深度学习算法,根据真实世界的样本创建新的恶意软件。安全专家必须不断防御愈发智能的机器人,因为一旦他们阻止了一种攻击,另一种新的攻击就会出现。简而言之,人工智能使攻击者在当前安全保障措施中寻找漏洞变得更容易。

人工智能时代的安全风险与应对之策

随着安防行业进入智能化时代,人工智能安全已经是行业目前必须面对的新挑战。

数智时代的安全风险

在安防行业,谈起安全,人们自然会想到数据安全、传输安全、网络安全等话题,但其实随着安防行业进入智能化时代,人工智能安全已经是行业目前必须面对的新挑战。

近年来,在大算力和海量大数据的驱动下,以深度学习为代表的AI技术飞速发展,以计算机视觉技术为例,依托广阔的应用场景从理论研究走向大规模的应用落地,人脸识别、目标检测等技术被广泛应用于公共安全、城市交通等领域,推动城市治理的智能化升级。

但在数据驱动智能化发展的背后,安全隐患也不容忽视。瑞莱智慧副总裁唐家渝指出,数据驱动的深度学习算法存在不可靠、不可解释等局限性,即便是开发者也难以理解其内在的运行逻辑,这就导致系统可能遭受到难以被察觉的恶意攻击。

McAfee曾做过一个实验,针对护照的人脸识别系统进行攻击,结合禁飞人员与正常飞行人员的特征,生成对抗样本图案,禁飞人员可凭包含这张生成的虚假照片的护照,顺利通过人脸识别护照系统的检测,顺利登机。这种潜在漏洞在国内安防门禁、考勤系统和手机解锁应用中同样存在。

唐家渝表示,这是深度学习范式下AI应用存在的结构性缺陷,贯穿于AI全生命周期。除了在运行环节对输入数据添加“扰动”,在最开始的模型设计环节,通过在训练数据中添加“污染数据”进行“投毒”,导致模型被埋藏后门,再通过预先设定的触发器激发后门,模型也将输出事先设定的错误结果。

通过数据污染、恶意样本攻击等方式对算法进行深层次攻击已经成为趋势,随着AI技术尤其是计算机视觉技术的广泛应用,这一安全风险的真实威胁开始显现。例如,公共安全领域,视频监控、安检闸机等智能安防设备被不法分子攻击,用于躲避追踪、冒充他人等;交通领域,自动驾驶汽车被干扰“致盲”,引发安全事故等;在金融领域,线上银行的人脸认证被破解,用于非法转账等诈骗行为。

唐家渝介绍,除了算法漏洞,“数据驱动”衍生的安全风险还远不止于此。海量人脸数据被恶意采集、滥用,导致用户隐私泄漏;泄露的人脸照片在表情驱动算法下生成伪造视频,用于攻破人脸核验系统等……如何有效应对人工智能安全风险,保障人工智能安全可控的应用落地成为行业未来发展的一项重要课题。

图:AI版“隐身衣”演示

AI安全风险如何应对

随着智能化场景的深入,人工智能的风险问题将更加的严峻。目前围绕AI的核心要素与环节来看,算法的漏洞、数据的滥用、隐私的泄露,以及技术滥用等问题都日渐严峻。如此,围绕算法、数据、应用等环节的AI治理问题也亟待解决。

针对以上问题,瑞莱智慧围绕“算法可靠、数据安全、应用可控”三大方向展开布局,在算法方面,其推出了业内首个业务级人工智能安全平台“RealSafe”,提供模型安全性测评及防御加固的端到端解决方案;在数据方面,其基于安全多方计算、联邦学习、匿踪查询等技术打造了数据安全共享基础平台隐私保护计算平台“RealSecure”;在应用治理领域,针对“AI换脸”等深度伪造技术滥用现象,瑞莱智慧推出深度伪造内容检测平台“DeepReal”,目前,该公司商业化产品已在政务、金融、能源、互联网等领域落地。

唐家渝认为,人工智能应用是集业务、算法、数据于一体的有机整体,涉及训练、检验、运行等生命周期阶段,所以应面向所有关键流程,布局全面且有针对性地安全防御措施。同时他强调,人工智能安全攻防技术在快速演变过程中,新的攻击手段不断出现,除了要解决“近忧”,更要着眼于“远虑”,对于未知威胁进行研判和防范,因此需打造动态升级、科学前瞻的防御理论及技术体系。

基于此,瑞莱智慧提出了兼顾“被动”和“主动”的防御机制。唐家渝解释道,被动防御为AI应用部署静态的安全能力,防范已知安全风险,比如对外部访问、输入数据、行为决策等进行检测,为算法模型部署加固防护组件等,提升系统抵御攻击的能力。主动防御则是为补充被动式防御的局限,引入和强化人工智能安全团队力量,以动态防御对未知威胁进行风险预判,构建自适应、自生长的安全能力。

AI市场新赛道

AI安全是新兴领域,虽然Google、OpenAI、BAT等科技巨头都有布局人工智能安全领域技术研究,但实际聚焦并将其商业化落地的企业寥寥无几。

作为市场的先行者,唐家渝认为这个领域除了部署技术体系外,更需要框架指导、标准规范、法律合规等多个维度协同推进。据悉目前瑞莱智慧已经与国家工信安全中心、中国信通院、国家互联网应急中心、公安部第三研究所等单位开展合作,联合落地标准制定、测试评估等工作,推动AI安全从“试点示范”走向“推广应用”。

唐家渝表示,目前整个AI产业已经从之前粗放式的高速发展进入到高质量发展的阶段,随着公众对于AI安全性的关注度提升,以及监管政策的出台和引导,未来AI行业将是发展与治理协同的阶段,如何保证AI应用的安全性是一个重要命题。安全AI这一新兴领域,比如AI安全防火墙、基于隐私计算的人脸识别方案等会很快迎来爆发。

安博会期间,安防知识网等媒体与唐家渝进行了一次深度对话。本次访谈中,唐家渝谈到AI安全的落地以及对AI产业的思考。

Q:整个展会看下来,瑞莱智慧非常的特殊,能否为我们简单介绍下企业?

唐家渝:瑞莱智慧孵化自清华大学人工智能研究院,致力于提供基于第三代人工智能技术的AI基础设施,加速安全、可靠、可信的产业智能化升级。核心聚焦安全AI领域,比如数据安全治理、算法可靠性提升,以及保障AI技术应用的安全可控。

Q:人工智能安全的最大挑战是什么?

唐家渝:安全问题的本质是攻防较量,是对抗升级的过程,我们需要永远比对手“快一步”。例如我们的AI防火墙能够检测到现有的一些新型攻击,但是攻击方也在不断更新算法,一旦他们比我们更快找到了新的漏洞,如果不能及时防御,后果可能会比较严重。这个对抗博弈的过程非常艰辛,背后的技术投入与技术难度是非常大的,但也只有这样才能制衡住对方。

Q:用户如何评估瑞莱智慧安全解决方案的效果?

唐家渝:安全的评估难以完全量化,主要通过两类场景来体现:一是用户已经遭受攻击产生损失,利用我们的系统能够将漏洞具体检测出来,同时基于我们的方案避免类似的损失发生;二是如果有更加新型的攻击方式出现,已经部署我们系统的用户通常能够更早地发现风险以及抵御风险,降低损失。

Q:目前哪些用户比较关心人工智能安全?

唐家渝:主要有三类,一是行业属性对场景及业务安全性关注度较高的群体,例如银行等金融机构,与财产安全直接挂钩;二是国家重大基础设施服务群体,例如电网,一旦有被攻击的风险将造成国家重大财产损失和社会安全问题;最后是监管类国家政府机构,因为部门职能要求,需要利用相应的技术工具对市面上的人工智能产品的安全性进行监管与评测。这是目前比较典型的客户群体,我们觉得,类似于互联网时代网络安全的出现,未来人工智能会像互联网一样,普及是未来趋势,相应的人工智能安全应对也将成为必需。

Q:与互联网安全厂商如360、奇安信等会有合作吗,还是业务是各自分开的?

唐家渝:我们之间属于合作的关系,人工智能安全与网络安全相比,两者针对的目标对象和风险类型是完全不同的,网络安全主要是针对计算机网络系统的安全防护,人工智能安全主要关注的是人工智能系统模型、数据、框架等方面的安全,两者技术点与场景点是不一样的。因此通过开展合作,各自发挥所长,推动全方位的安全服务落地。

Q:安防行业强调的安全是数据存储与数据传输的安全,但瑞莱智慧强调的是用算法去推进安全的应用,对于传统用户而言,目前的接受程度如何?

唐家渝:现阶段看,市场仍需要一个培育的过程,但部分领域的客户已经有这方面的意识。比如我们与公安客户交流,他们对于人工智能安全必要性的认知还是非常高的。当前捕捉在逃嫌疑人的人脸识别系统、视频结构化系统的识别算法会被一些不法分子绕过,因此针对这些安全系统的升级也迫在眉睫。同样的,金融行业的用户接受度也更高,虽然针对AI系统的攻击仍是比较新的,但在利益的驱使下,已经有不少黑产分子在利用这些技术手段实施攻击,头部的银行客户也正在我们的帮助下加速建立完善的人工智能安全体系。另外,我们除了布局算法安全外,也涉及数据安全领域,比如基于隐私计算的数据治理方案,为用户提供全面的安全保障。

Q:瑞莱智慧这类型的企业出现,也意味着AI产业的野蛮生长已经结束,开始进入理性化的阶段,站在您的角度,如何看待AI企业未来的发展?

唐家渝:之前的安防展,AI企业展现的内容还大多聚焦在人脸识别与视频结构化等应用,企业拼到最后也是在数据收集以及场景深耕上竞争。但今年来看的话,AI安全治理开始受到重视,随着数据安全法、算法治理规范等相关条例的出台,以及公众舆论的讨论,使用人脸识别产品的企业对安全问题的关注度越来越高,业界开始出现探索安全可信的AI方案,比如后端治理上,数据采集后的脱敏存储、结合隐私计算的人脸识别方案等。从大环境来看,AI企业的算法效果的差异化已经没那么明显了,未来市场的趋势一定是在追求算法落地效果的基础上要保障算法与数据的安全可控,这有助于整个AI产业的健康发展,同时对我们而言也是个利好的趋势。

Q:除了公安,未来瑞莱智慧会切入其他安防场景,如交通、社区等场景吗?

唐家渝:这些场景我们都有在布局,因为AI安全性问题属于底层的通用问题,当前安全问题的产生源自于深度学习算法的结构性缺陷,我们首先切入公安的人脸识别场景是因为其应用最为广泛,面临的风险也最为严峻。但像智能交通的车牌识别、社区安防的人脸识别和ReID跟踪等场景,同样存在安全风险,我们也在跟这些领域的厂商与主管部门展开合作,共同推进相关场景的AI系统安全性升级。

Q:所有的智能化应用落地都会有困难,那么人工智能安全方案在落地之前会遇到挑战吗?

唐家渝:会的,核心是安全与效果之间的平衡,因为安全方案的引入,或多或少都会对系统的效果产生影响。举一个例子,一些视频结构化系统具有较好的识别效果,但同时容易被攻击误导,这种情况下,我们核心要突破的挑战便是如何最大程度降低被恶意攻击的概率,同时保证系统的识别效果尽可能不受影响,这需要我们对识别算法、攻防算法的技术理论以及实际的业务逻辑都要有深入的理解。

人工智能安全学习笔记

任何一项新技术的发展与应用都存在相互促进又相互制约两个方面:一方面,技术的发展能带来社会的进步与变革;另一方面,技术的应用要以安全为前提,要受到安全保障机制的制约。

人工智能安全

人工智能安全分为三个子方向:

人工智能助力安全(AIforSecurity)人工智能内生安全(AISecurity)人工智能衍生安全(AISafety)

其中,助力安全体现的是人工智能技术的赋能效应;内生安全和衍生安全体现的是人工智能技术的伴生效应。人工智能系统并不是单纯依托技术而构建,还需要与外部多重约束条件共同作用,以形成完备合规的系统。

人工智能安全的体系架构及外部关联如图1所示。人工智能助力安全

主要表现为助力防御和助力攻击两个方面。

在助力防御方面,防御者正在利用人工智能技术提升和扩展其原有防御方法。

人工智能机器学习模型为积极主动的网络防御带来了新途径。智能模型采用积极主动的方式,而不是传统的被动应对方式;同时,利用人工智能的预测能力和机器学习的进化能力,可以为我们提供抵御复杂网络威胁的手段。本质上来讲,最重要的变化是在网络攻击发生之前就进行预警并采取阻断措施。

麻省理工学院研发的基于人工智能的网络安全平台AI2,用人工智能方法来分析网络攻击情况,帮助网络安全分析师做那些类似“大海捞针”的工作。AI2系统首先利用机器学习技术自主扫描数据和活动,把发现的结果反馈给网络安全分析师。网络安全分析师将会标注哪些是真正的网络攻击活动,并将工程师的反馈纳入AI2系统,从而用于对新日志的自动分析。在测试中,研究小组发现AI2的准确性约为现今所使用的自动分析工具的3倍,大大减少误报的概率。另外,AI2在分析过程中可以不断产生新模型,这意味着它可以快速地改善自己的预测率。系统检测越多的攻击活动,收到来自分析师的反馈越多,相对地可以不断提高未来预测的准确性。据报道,AI2通过超过3.6亿行日志文件的训练,使其可以分析出85%的攻击行为,以便告警可疑行为。

在助力攻击方面,攻击者正在利用人工智能技术突破其原有能力边界。

人工智能可以赋能网络攻击,业内称之为自动化或智能化网络攻击。通过机器人在人完全不干预的情况下,自动化地进行计算机的攻击。近年来连续发生的重大黑客事件,包括核心数据库泄密、数以亿计的账户遭入侵、WannaCry勒索病毒等都具有自动化攻击的特点。通过借助自动化工具,攻击者可以在短时间内,以更高效、更隐蔽的方式对大量不同网站进行漏洞扫描和探测,尤其对于0day/Nday漏洞的全网探测,将会更为频繁和高效。人工智能强大的数据挖掘和分析能力,以及由此带来的智能化服务,经常被黑客组织加以利用,借助于人工智能技术,形成更为拟人化和精密化的自动化攻击趋势,这类机器人模拟真人的行为会更聪明、更大胆,也更难以追踪和溯源。当前,自动化、智能化的网络攻击正在不断让网络安全防线频频失守,而这显然需要引起网络安全行业的足够重视,需要从了解自动化网络攻击行为特点入手,及时采取措施。

人工智能内生安全

人工智能内生安全指的是人工智能系统自身存在脆弱性。脆弱性的成因包含诸多因素,人工智能框架/组件、数据、算法、模型等任一环节都可能给系统引入脆弱性。

在框架/组件方面,难以保证框架和组件实现的正确性和透明性是人工智能的内生安全问题。框架(如TensorFlow、Caffe)是开发人工智能系统的基础环境,相当于人们熟悉的VisualC++的SDK库或Python的基础依赖库,重要性不言而喻。

在数据方面,缺乏对数据正确性的甄别能力是人工智能的内生安全问题。例如,数据的丢失和变形、噪声数据的输入,都会对人工智能系统形成严重的干扰。

在算法方面,难以保证算法的正确性是人工智能的内生安全问题。智能算法存在的安全缺陷一直是人工智能安全中的严重问题。例如,对抗样本就是一种利用算法缺陷实施攻击的技术,自动驾驶汽车的许多安全事故也可归结为由于算法不成熟而导致的。

在模型方面,难以保证模型不被窃取或污染是人工智能的内生安全问题。模型是一个可拷贝、可修改的实体文件,就存在被窃取和被植入后门的安全风险,这就是人工智能模型安全需要研究的问题。

人工智能自身存在着脆弱性,例如对抗样本就是人工智能的内生安全问题。对抗样本是机器学习模型的一个有趣现象,反映出了人工智能算法的弱点。攻击者通过在源数据上增加人类难以通过感官辨识到的细微改变,但是却可以让机器学习模型接受并做出错误的分类决定。一个典型的场景就是图像分类模型的对抗样本,通过在图片上叠加精心构造的变化量,在肉眼难以察觉的情况下,让分类模型产生误判。对抗样本除在图像识别领域存在,也在其他领域存在,如语音、文本等。从网络安全领域看,同样存在类似于对抗样本的攻击问题,攻击者通过对恶意代码插入扰动操作就有可能对人工智能模型产生欺骗。例如,有人就设计了一个恶意样本,让分类器将一个存有恶意行为的软件认定为良性的变体,从而可以构造能自动逃逸PDF恶意软件分类器的攻击方法,以此来对抗机器学习在安全中的应用。上述安全问题都可能会导致同样后果,就是导致人工智能系统发生错误的决策、判断,以及系统被控制等问题。

人工智能衍生安全

人工智能衍生安全指的是人工智能系统因自身脆弱性而导致危及其他领域安全。衍生安全问题主要包括四类:

人工智能系统因存在脆弱性而可被攻击人工智能系统因自身失误引发安全事故人工智能武器研发可能引发国际军备竞赛AIA一旦失控将危及人类安全

人工智能的失误可能会给人类带来灾难,从而会形成衍生安全问题。2016年5月7日,在佛罗里达州公路上一辆处于“自动驾驶”模式的特斯拉ModelS以74英里的时速,撞上了拐弯中的白色拖挂式大货车。ModelS从货车车底穿过,车顶被完全掀飞,40岁的驾驶员JoshuaBrown不幸死亡。出事路段限制时速为65英里/时。由于“自动驾驶”模式车前的高清摄像头为长焦镜头,当白色拖挂卡车进入视觉区域内时,摄像头只能看到悬浮在地面上的卡车中部,而无法看见整个车辆;此外,当时阳光强烈(蓝天白云),使得自动驾驶系统无法识别出障碍物是一辆卡车,而更像是飘在天上的云,导致自动刹车未生效。这次事故引发了外界对自动驾驶汽车安全性的争议。这种自动驾驶的缺陷导致人类伤亡的事情,是典型的人工智能衍生安全的案例。

《人工智能安全论述》方滨兴1,2,3崔翔2,3顾钊铨2,3方滨兴院士:人工智能安全之我见人工智能安全方滨兴

人工智能安全风险分析与内涵

1、新的攻击威胁:

攻击方法:对抗样本的攻击、数据投毒、模型窃取、人工智能系统攻击

攻击影响:模型的训练、测试和推断过程中均可能遭受攻击;危害数据和模型的机密性、完整性和可用性。

2、人工智能安全隐患

①算法模型安全隐患:算法是人写的,模型也是人写的,都可能有缺陷,有歧视,有黑箱操作的可能。

②数据安全与隐私保护隐患:采集数据、使用数据、存储数据都不同程度的滥用泄露。

③基础设施安全隐患:简单理解,人工智能也得依赖数据库、操作系统、代码。这些就是基础设施,一旦这些基础被黑客控制了,数据就被泄露了。

④应用安全隐患:自动驾驶(黑客远程入侵控制导致撞车)、生物特征识别(小学生用照片成功忽悠人脸识别)、智能音箱等等。

⑤人工智能滥用:利用语音合成技术假扮受害人亲属实施诈骗、人工智能技术破解登录验证码的效果越来越好、且难以防范、利用人工智能技术模仿人类,如换脸、手写伪造、人声伪造、聊天机器人。

3、安全影响:

国家安全影响:人工智能可用于构建新型军事打击力量,对国防安全造成威胁。

社会伦理挑战:智能人工机器人替代人,造成大量失业;人们不去恋爱了,就和机器人恋爱。

人身安全风险:抽象

人工智能安全标准化白皮书(2019版)

网络空间安全

基于计算的学科,涉及技术,人员,信息和流程,可确保在对手的上下文中进行有保证的操作。它涉及安全计算机系统的创建,操作,分析和测试。这是一门跨学科的学习课程,包括法律,政策,人为因素,道德和风险管理等方面。

网络空间安全不仅关注传统信息安全所研究的信息的保密性、完整性和可用性,同时还关注构成网络空间的基础设施的安全和可信,以及网络对现实社会安全的影响。

专业解析:国际上习惯用机密性,完整性和可用性这三个属性(简称CIA)称为安全性的三个要素。凡是在网络空间中,涉及到CIA三个要素之一的内容,都纳入网络空间安全范畴。包括:防止信息被泄密、防止未授权的访问与篡改、防止系统不可用。

网络空间

网络空间是信息环境中一个整体域,它由独立且相互依存的信息基础设施和网络组成。包括了互联网、电信网、计算机系统、嵌入式处理器和控制器系统。

专业解析:专业上通常把遵循ISO/OSI7层协议框架(有时用TCP/IP协议框架)的设备统称为IT(InformationTechnology)设备或系统,例如路由器、服务器、PC,各类应用软件等。如果把整个范围扩大到所有可以连接到网络上的非IT设备系统:包括工业设备系统(OperationTechnology,简称OT设备)如核电站;物联网设备系统(InternetofThings,简称IoT设备)如蓝牙音箱、自动驾驶汽车。这就是网络空间的范围。特点是:海量+万物。

网络安全NetworkSecurity

为防止,检测和监视计算机网络和网络可访问资源的未经授权的访问、滥用、修改或拒绝而采取的策略、过程和做法组成。包含网络设备安全、网络信息安全、网络软件安全。

专业解析:网络安全通常是指遵循ISO7层协议框架(或TCP/IP)的IT设备之间如何保障机密性、完整性和可用性的问题。如:系统被攻击,设备通信时被黑客嗅探获取密码。特点:IT设备。

信息安全

严谨定义:ISO27001定义:保护组织有价值的信息资产机密性、完整性和可用性,而建立的组织、策略与流程。专业解析:企业内部有价值的信息资产包括硬件、软件、服务、人员、数据、无形资产等。如何保护这些资产的机密性、完整性和可用性。例如:防止公司重要数据库服务器被破坏。可能是外部黑客,也可能是内部人员破坏。

数据安全

严谨定义:维基百科:保护数字数据免受破坏力和未经授权用户的有害行为的侵害,例如网络攻击或数据泄露。

专业解析:结构化数据、半结构化数据及非结构化数据在其整个生命周期中的机密性、完整性和可用性的保护。

重要性

进入21世纪,随着信息化建设和IT技术的快速发展,各种网络技术的应用更加广泛深入,同时出现很多网络安全问题,致使网络安全技术的重要性更加突出,网络安全已经成为各国关注的焦点,不仅关系到机构和个人用户的信息资源和资产风险,也关系到国家安全和社会稳定,已成为热门研究和人才需求的新领域。必须在法律、管理、技术、道德各方面采取切实可行的有效措施,才能确保网络建设与应用“又好又快”地稳定发展。

网络空间已经逐步发展成为继陆、海、空、天之后的第五大战略空间,是影响国家安全、社会稳定、经济发展和文化传播的核心、关键和基础。网络空间具有开放性、异构性、移动性、动态性、安全性等特性,不断演化出下一代互联网、5G移动通信网络、移动互联网、物联网等新型网络形式,以及云计算、大数据、社交网络等众多新型的服务模式。

网络安全已经成为世界热门研究课题之一,并引起社会广泛关注。网络安全是个系统工程,已经成为信息化建设和应用的首要任务。网络安全技术涉及法律法规、政策、策略、规范、标准、机制、措施、管理和技术等方面,是网络安全的重要保障。

信息、物资、能源已经成为人类社会赖以生存与发展的三大支柱和重要保障,信息技术的快速发展为人类社会带来了深刻的变革。随着计算机网络技术的快速发展,我国在网络化建设方面取得了令人瞩目的成就,电子银行、电子商务和电子政务的广泛应用,使计算机网络已经深入到国家的政治、经济、文化和国防建设的各个领域,遍布现代信息化社会的工作和生活每个层面,“数字化经济”和全球电子交易一体化正在形成。网络安全不仅关系到国计民生,还与国家安全密切相关,不仅涉及到国家政治、军事和经济各个方面,而且影响到国家的安全和主权。随着信息化和网络技术的广泛应用,网络安全的重要性尤为突出。因此,网络技术中最关键也最容易被忽视的安全问题,正在危及网络的健康发展和应用,网络安全技术及应用越来越受到世界的关注。

jtj2008知道合伙人教育行家https://blog.csdn.net/agiogo/article/details/115861564

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇