强化人工智能安全治理(新论)
作为新一轮科技革命和产业变革的重要驱动力量,人工智能技术发展与应用拓展正在按下“快进键”。今年11月,习近平总书记主持召开的中央政治局会议强调,加快提升生物安全、网络安全、数据安全、人工智能安全等领域的治理能力。这为推动人工智能健康发展提供了重要指引。
在人机协同、跨界融合、共创分享的智能时代,人工智能的应用场景愈发广泛。人工智能为经济社会发展注入活力的同时,也给人类生活带来了新的风险挑战,比如对个人隐私权、知情权、选择权的侵犯,以及窃取、篡改、泄露等非法收集利用个人信息的行为,等等。为此,迫切需要加快提升人工智能安全治理能力,加强人工智能相关法律、伦理、社会问题等研究,建立健全保障人工智能健康发展的法律法规与伦理体系。
加快提升人工智能安全治理能力,需要完善相关的法律法规及行业标准。人工智能的安全秩序包含算法安全、数据安全、伦理安全、国家安全等维度。2019年以来,中国先后发布《新一代人工智能治理原则――发展负责任的人工智能》《全球数据安全倡议》等文件,明确了人工智能治理框架和行动指南。今年9月发布的《新一代人工智能伦理规范》强调,将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题,为从事人工智能相关活动的自然人、法人和其他相关机构等提供了伦理指引。
加快提升人工智能安全治理能力,要引导社会公众正确认识人工智能。人工智能监管者要提高站位,加强宏观战略研究与风险防范;人工智能研发者要坚持正确价值导向,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性;人工智能的技术提供者要明确告知义务,加强应急保障;人工智能产品的使用者,应当保证这一技术不被误用、滥用或恶用。要对各类伦理道德风险保持高度警惕,坚持以人为本,落实科技向善理念,弘扬社会主义核心价值观。
加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控,也是摆在世界各国面前的重要课题。在推动完善人工智能全球治理方面,中国是积极倡导者,也是率先践行者。2020年9月,中国发布《全球数据安全倡议》,明确提出秉持共商共建共享理念,齐心协力促进数据安全;今年5月,中国担任联合国安理会轮值主席期间,主持召开“新兴科技对国际和平与安全的影响”阿里亚模式会议,推动安理会首次聚焦人工智能等新兴科技问题,为国际社会探讨新兴科技全球治理问题提供了重要平台,体现了大国责任担当。
数字化浪潮扑面而来,信息化、数字化、智能化趋势不断演进。主动加强对人工智能的伦理与法律规范,才能更好适应人工智能快速发展的新变化、新要求,在法治轨道上推动人工智能向善发展、造福人类。
(作者为北京理工大学法学院教授)
《人民日报》(2021年12月30日05版)(责编:袁勃、赵欣悦)分享让更多人看到
发展人工智能,应客观看待其安全挑战
朱启超国防科技大学国家安全与军事战略研究所所长
进入21世纪,信息技术、新材料技术、新能源技术、先进制造技术等领域的发展突破,驱动着人工智能的第三次浪潮席卷全球,塑造着科技革命、产业革命和军事革命的崭新面貌,引起许多国家的高度重视。近年来,人们在津津乐道人工智能带来无限发展机遇的同时,政界领袖、学界大咖、科技大佬等也纷纷表达了对人工智能可能带来安全挑战的担忧。比如,俄总统普京认为人工智能是整个人类的未来,它将为人类提供巨大机遇,但同时也存在某些无法预测的威胁。霍金生前曾呼吁人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来毁灭性威胁。马斯克声称人工智能是关系人类文明存亡的最大威胁,而马云则在一次公开演讲中认为,随着人工智能逐渐消灭人类工作岗位,可能引爆第三次世界大战。
这些担忧到底是为了吸引眼球而危言耸听,还是心怀悲悯而杞人忧天?到底应如何客观看待人工智能可能带来的安全挑战?笔者认为,人们对于人工智能的安全担忧是由于人工智能本身的技术复杂性、科幻色彩和应用实践的初始性造成的,是一定阶段人们对人工智能粗浅认知的折射反映。
人工智能本是个外来词,来自英语artificialintelligence的翻译。狭义的人工智能是指机器人及其相关技术,广义的人工智能则是指能够模拟、延伸、替代人的行为的相关技术。这种定义方式其实为我们理解人工智能带来了技术上的难度。从狭义来看,机器人相关技术就包括了机器人设计制造、模式识别、交流学习等很多方面。从广义来看,任何只要是能够模拟、延伸、替代人的行为的相关技术都可认为是人工智能技术,比如模拟人的思维推理、人的五感交互、人的行为模式等技术。因此,无论是狭义还是广义都可以看出,人工智能不是一项单一的技术,而是多项技术构成的复杂体系。这就为我们理解人工智能及其可能引发的安全问题带来的困难,甚至由于对于技术的不了解造成了对于人工智能想象中的安全担忧或认知黑洞。
人工智能的技术特性决定了人工智能具有鲜明的科幻色彩。《太空漫游》《异形》《机械姬》《终结者》等与人工智能相关的科幻大片很多,给人们留下了深刻印象,也提供了丰富的想象空间。由于对于技术细节缺乏了解,对于未来的无限憧憬,对于未知世界的本能恐惧,导致人们对于人工智能及其可能产生的安全挑战有了更多的想象,甚至走向人工智能终将毁灭人类这种极端。
从1956年人工智能概念的提出,半个多世纪过去,人们迎来了人工智能发展的第三次浪潮。这一次浪潮最大的特点是人工智能引发科技革命、产业革命、军事革命的交织并进,激发了人工智能发展的强劲动力。但即便如此,人工智能无论是从科技创新本身,还是产业业态以及军事应用的实践,都还是处于一种远未成熟的初级阶段,很多科技本源问题、理论方法问题以及创新发展模式亟待取得突破。比如,人工智能相关脑科学研究仍有大片空白,人机共生的相关理论还未建立,人工智能产业生态还不完善,等等。
客观看待人工智能可能带来的安全挑战,是我们理解人工智能、发展人工智能、管控人工智能的前提。人工智能本身发展的上述特点,为人们理解人工智能带来了难度甚至障碍。客观看待人工智能可能带来的安全挑战,首先需要树立正确的思维理念。
一是要秉持科学的态度。人工智能带来的安全挑战既可能来自于技术不成熟,也有可能由于人为管理管控上的疏失,必须用科学的态度,进行实事求是的分析。一般来说,人工智能引发的安全问题可以分为三个层次:一是某行业某领域或某系统内安全操作规程管理方面的安全风险;二是国家安全层面对于政治、经济、金融、科技、国防等领域带来的安全挑战;三是由于人工智能技术的跨国使用引发的网络安全、太空安全、核安全、反恐行动乃至国际安全治理等方面的挑战。人工智能在不同层面带来的安全挑战具有不同的特点及应对要求,需给予区别对待,而不能一锅煮甚至张冠李戴。
二是要坚持发展的态度。总体上看,人工智能带来的安全挑战仍处于可控的范围,人们对人工智能未来发展的担忧,主要在于人工智能作为一项技术可能触发更多的安全问题。另一方面,人类作为这个星球上智力水面最高的灵长类生物,一旦人类发明的人工智能超越了人类自身,将不可避免地引发对未来的本能的恐慌。历史上,每一次工业革命或技术革命的到来初期,由于人们对于技术的认知与实践体验相对缺乏,都曾引发过一定程度的恐慌。
比如第一次工业革命初期作坊工人对于机器的抵制与破坏,第二次工业革命初期人们对于电力使用不当造成人员伤亡的恐慌。作为不断发展演进的人类文明的产物,需要我们用发展的眼光看待人工智能的正面作用和可能引发的安全挑战,既充分发挥人工智能的潜力造福人类,又能够未雨绸缪管控人工智能可能引发的安全危机。当人们越是能够客观看待人工智能带来的安全挑战,就越能够开辟人工智能安全科技与安全产业创新的蓝海。
三是要坚持合作的态度。人工智能技术与信息技术的发展紧密相关,尤其是移动宽带通信、大数据、云计算、物联网等领域的技术突破,将促进人工智能相关技术和产业的成熟。从技术特点看,人工智能与信息技术类似,都具有低成本、易扩散、难封控的特征,并且技术一旦成熟,市场的边际成本将大大降低,甚至被认为属于“零边际成本”的技术。这使得人工智能可能引发的安全问题也将具有易扩散、难封控的特点。比如,若监管缺失,一个黑客就有可能运用新的人工智能算法及入侵技术破坏一个国家的电网、公共交通指挥网络等的正常运转,引发大面积的灾难性后果,甚至殃及无辜。
从理论上说,社会信息化智能化水平越高,将会对于技术体系愈加依赖,而一旦原有的技术体系受到冲击,将产生新的不确定性和脆弱性。在信息技术、人工智能技术等大发展的时代,我们面临的安全挑战呈现出技术复杂性、体系脆弱性的双重特征。正因如此,必须坚持开放合作的态度,国家政府部门、社会行业领域及公民个体等应共同加强对人工智能的技术认知和实践体验,共同应对人工智能可能带来安全挑战,那些“各人自扫门前雪”独善其身的想法已与这个时代越来越脱节。
总之,对于人工智能新的发展浪潮,既不能只看到其利而盲目追捧,也不能因为其潜在的安全威胁而踟蹰不前。必须客观认识人工智能的发展应用,如果人们能够在未来的实践中不断避免对人工智能相关安全问题的误解、误判和误用,人类仍然能够掌控自己的命运。
中国社会科学杂志社
当前,人工智能被深度应用于社会的各个领域,推动了社会生产效率的整体提升。然而,作为一种具有开放性、颠覆性但又远未成熟的技术,人工智能在带来高效生产与便利生活的同时,不可避免地对现有伦理关系与社会结构造成冲击,且已引发不少伦理冲突与法律问题。在技术快速更新的时代,如何准确把握时代变迁的特质,深刻反思人工智能引发的伦理风险,提出具有针对性、前瞻性的应对策略,是摆在我们面前的重大时代课题。
技术伦理风险
技术是一把双刃剑,其在推动社会进步的同时,也在很大程度上带来了技术风险。人工智能技术也是如此。现阶段,人工智能的技术伦理风险主要体现在以下三个方面。
人工智能的设计风险。设计是人工智能的逻辑起点,设计者的主体价值通过设计被嵌入人工智能的底层逻辑之中。倘若人工智能设计者在设计之初,秉持错误的价值观或将相互冲突的道德准则嵌入人工智能之中,那么在实际运行的过程中便很有可能对使用者生命、财产安全等带来威胁。
人工智能的算法风险。算法是人工智能的核心要素,具备深度学习特性的人工智能算法能够在运行过程中自主调整操作参数和规则,形成“算法黑箱”,使决策过程不透明或难以解释,从而影响公民的知情权及监督权,造成传统监管的失效。人工智能算法可能在不易察觉或证明的情况下,利用算法歧视或算法合谋侵害消费者的正当权益,进而扰乱市场经济秩序和造成不公平竞争。近年来被广泛曝光的“大数据杀熟”,正是这一风险的具体体现。
人工智能的数据安全风险。隐私权是人的一项基本权利,隐私的保护是现代文明的重要体现。但在众多的人工智能应用中,海量的个人数据被采集、挖掘、利用,尤其是涉及个人生物体征、健康、家庭、出行等的敏感信息。公民的隐私保护面临巨大挑战,人工智能所引发的隐私泄露风险已被推到风口浪尖。而不少隐私泄露事件的发生,也在一定程度上加深了公众对人工智能广泛应用的担忧。隐私保护与人工智能的协调发展,已成为当前亟待解决的问题。
社会伦理挑战
人工智能不仅有着潜在的、不可忽视的技术伦理风险,伴随数字化的飞速发展,人工智能对现有社会结构及价值观念的冲击亦愈发明显。人类社会的基本价值,如尊严、公平、正义等,也正因此面临挑战。
人工智能的发展对人类道德主体性的挑战。2017年智能机器人索菲亚被授予沙特阿拉伯王国公民身份,这引发了许多人对人工智能挑战人类主体性的担忧。通常人被认为是唯一的道德主体,人的道德主体性的依据在于人的某些精神特点(如意识、思维)。当前,人工智能虽仍处于弱人工智能阶段,还无法形成自我意识,但是,智能机器人不仅在储存、传输、计算等多方面的能力超越了人脑,而且借助材料学等现代技术,智能机器人可能在外形上“比人更像人”,甚至拥有更丰富的情感(比如索菲亚能够模拟62种面部表情)。这样的智能机器人究竟是否是“人”?是否应确立为道德主体?如果赋予人工智能主体资格,那么其究竟是一种与人类对等的主体,还是一种被限制的主体?这些问题表明:人工智能对人类道德主体性的挑战,不只是电影小说中的浪漫想象,而是已日益成为一种现实风险。
人工智能的发展对社会整体公平正义的挑战。首先,人工智能的发展可能加剧社会的贫富差距。由于年龄、所在地区、从事行业、教育水平等的差异,人们接触人工智能的机会并不均等,实际使用人工智能的能力并不相同,这就造成了“数字鸿沟”现象。“数字鸿沟”与既有的城乡差别、工农差别、脑体差别等叠加在一起,进一步扩大了贫富差距,影响了社会发展的公平性。其次,人工智能的发展可能引发结构性失业大潮。由于智能机器相较于人类工人有着稳定、高效等优势,越来越多的人类工人正在被智能机器所取代,成为赫拉利(YuvalNoahHarari)在《未来简史》中所谓的“无用阶级”。麦肯锡全球研究所的研究数据显示,到2030年,全球将有8亿人因工作流程的智能化、自动化而失去工作。虽然人工智能的发展也会带来新的工作岗位,但是由于“数字鸿沟”的存在,不少人并不能找到新的工作,结构性失业大潮可能汹涌而至。这将成为激化社会矛盾、破坏社会稳定、挑战社会公平正义的又一重大潜在风险。
应对防范策略
技术伦理风险与社会伦理挑战的图景展示表明,人工智能“安全、可靠、可控”的良性发展依然任重道远。对于人工智能风险、挑战的应对防范,事关未来社会的发展方向与人类整体的前途命运,需要我们运用哲学的反思、批判,作出审慎恰当的抉择。
确立人工智能发展的基本价值原则。面对风险、挑战,我们应当避免马尔库塞(HerbertMarcuse)所说的“技术拜物教”倾向,要将伦理、道德等价值要素纳入到人工智能发展的内在考量之中,尽快构建起具有广泛共识的人工智能伦理体系。应确立如下基本价值原则,作为建构人工智能伦理体系的“阿基米德支点”。一是人本原则。人工智能始终是“属人”的造物,是为增进人类的福祉和利益而被创造出来的。无论人工智能有多么接近“图灵奇点”,也不应改变其属人性。人本原则是人工智能研发、应用的最高价值原则。二是公正原则。人工智能的发展要以绝大多数人的根本利益为归趋,不能片面地遵循“资本的逻辑”与“技术的逻辑”,坐视“数字鸿沟”的扩大,而应当让每一个人都拥有平等接触、使用人工智能的机会,从而使绝大多数人都能从人工智能的发展与应用中受益。三是责任原则。明晰道德责任,对于防范和治理人工智能伦理风险具有重要意义。要加强人工智能设计、研发、应用和维护等各个环节的责任伦理建设,尤其要注意设计者、开发者的道义责任感培养,明确各方主体的权利、义务和责任,建立健全完备、有效的人工智能事故追究问责机制。
建立人工智能发展的具体伦理规范。在确立人工智能伦理基本原则的同时,还需要制定人工智能产品设计者、开发者及使用者的具体伦理规范与行为守则,从源头到下游进行规范与引导。针对人工智能的重点领域,要研究具体细化的伦理准则,形成具有可操作性的规范和建议。应当加强教育宣传,推动人工智能伦理规范共识的形成。进一步,可以将取得广泛共识的伦理规范嵌入于算法之中,避免人工智能运行过程中的“算法歧视”与“算法欺诈”问题。此外,要充分发挥伦理审查委员会及其相关组织的作用,持续修订完善《新一代人工智能伦理规范》,定期针对新业态、新应用评估伦理风险,促进人工智能伦理规范的与时俱进。
健全人工智能发展的制度保障体系。在社会层面,应加大对“数字弱势群体”的政策帮扶,如税收减免、财政补贴等,确保人工智能发展的共同富裕方向。面对可能到来的结构性失业问题,可以为劳动者提供持续的终身教育和职业培训。在法律层面,应积极推动《个人信息保护法》《数据安全法》的有效实施,建立对人工智能技术滥用与欺诈的处罚细则,逐步加快《人工智能法》的立法进程。在行业层面,应加强人工智能行业自律体系建设。建立并充分发挥伦理委员会的审议、监督作用,加强国际合作,推动人工智能行业发展朝着“安全、可靠、可控”的方向健康发展。
(作者单位:南京大学哲学系)
张小松团队:人工智能算法安全与安全应用
张小松,电子科技大学教授,博士生导师,主要研究方向为网络安全,2019国家科技进步一等奖和2012国家科技进步二等奖的第一完成人,2020第二届全国创新争先奖和2017网络安全优秀人才奖获得者,四次获得省部技术发明/科技进步一等奖,担任提升政府治理能力大数据应用技术国家工程实验室专家委员会副主任委员,中国电子学会区块链分会副主任委员,国家重点研发计划网络空间安全重点专项首席科学家,发表SCI/EI学术论文139篇,以第一作者出版专著2部,译著2部,以第一发明人获授权国家发明专利42项。
人工智能算法安全与安全应用的相关研究属于网络安全领域。网络安全则是一门内涵在不断发展的伴随学科,任何一项技术的快速发展都会衍生出相应的安全问题,像量子计算、人工智能技术的发展更是会改变传统安全的思维方式。因此,人工智能技术的井喷式发展给网络空间安全领域带来了巨大的挑战与希望。
人工智能带来的希望主要在于:人工智能高效、准确的特点,能显著提升现有网络空间安全的防护能力,能大幅改善防护的实时性,因此,人工智能早已被应用于网络空间安全领域,且在应对部分人类难以解决的问题时,具有巨大的潜力。其带来的挑战在于:人工智能自身也存在数据安全、算法安全、隐私保护等安全问题,另外人工智能算法同样能为攻击者利用。
结合学术界和产业界的总结,人工智能算法安全与安全应用的内涵包括两个方面:
一是从安全的角度审视人工智能算法,认识并应对人工智能算法存在的缺陷,为人工智能算法的应用加上保险;
二是将人工智能算法应用到传统安全领域,提高相关防护方式的实时性、准确性。
《人工智能算法安全与安全应用》(张小松,刘小垒,牛伟纳著.北京:科学出版社,2021.3)一书主要依据作者团队所完成的具体科研项目与科研成果,围绕人工智能网络安全应用以及对人工智能算法自身安全性分析而展开介绍。
本书主要内容共三部分。
▲本书框架
▋第一部分人工智能算法安全与安全应用概述。首先总结人工智能技术的发展近况以及人工智能技术对人类生产生活的重要影响;其次,讨论人工智能算法安全与安全应用的研究范畴,并简要介绍各国对人工智能安全相关研究的重视程度;最后,对全书的脉络进行梳理与归纳。
▋第二部分探讨人工智能算法安全。首先,从人工智能算法鲁棒性的角度介绍针对人工智能模型的攻击方法,包括作者团队提出的多种利用目前人工智能算法鲁棒性缺陷而设计的对抗攻击算法;其次,对人工智能算法的安全性增强方法进行介绍,并对人工智能对抗样本的性质进行探讨;最后,从数据安全的角度介绍数据安全对人工智能算法决策以及对人工智能安全的影响,进而从数据保护、隐私保护的角度介绍几种数据保护方法,并分析近期提出的数据投毒防御方法。
▋第三部分是对网络空间安全问题与人工智能技术结合的总结,分别对主流的漏洞攻击、恶意代码攻击、匿名网络技术和APT技术进行介绍与归纳总结,并结合作者团队的研究经验对近年来人工智能技术与上述网络安全领域结合后的研究现状进行总结和梳理。
2020年6月我出版了《人工智能安全》一书,书中详细描述了人工智能的赋能效应与伴生效应。这期间恰好张小松教授把刚刚写好的《人工智能算法安全与安全应用》书稿给我看,该书确实是让我眼睛一亮。我所主编的《人工智能安全》更多地是从宏观的层面论述人工智能安全的整体面貌,而张小松教授的《人工智能算法安全与安全应用》是对其中的人工智能内生安全和赋能防御两个具体方面进行了深化,从更为深入、更为详尽的角度具体探讨了人工智能内生安全中的算法安全问题,同时还详尽介绍了人工智能赋能防御中的几种应对网络安全的方法,从而深入系统地诠释了人工智能内生安全及人工智能赋能防御的内涵。
该书的精彩之处在于书中融入了张小松团队近年来在相关领域的研究成果,既有理论探讨,也有实验结果分析。书中所介绍的人工智能算法安全性以及人工智能在网络安全防御中的应用是以该团队多年来的相关研究为底蕴,也算是对团队前期工作的一次梳理。
该书能为广大学者在人工智能算法安全性与安全应用研究方面提供帮助,也会促进对人工智能安全性的研究,尤其能为突破内生安全与赋能防御提供新的思路和启迪。
中国工程院院士
2021年1月
本文摘编自《人工智能算法安全与安全应用》(张小松,刘小垒,牛伟纳著.北京:科学出版社,2021.3)一书“第一章绪论”“序”,有删减修改,标题为编者所加。
(前沿信息技术的安全与应用丛书)
ISBN978-7-03-066907-0
责任编辑:张海娜赵微微
相关著作
区块链安全技术与应用
张小松著
北京:科学出版社,2021.3
(前沿信息技术的安全与应用丛书)
ISBN978-7-03-066908-7
责任编辑:张海娜赵微微
本书是一部关于区块链安全与应用的技术专著,主要内容包括区块链简介、共识机制与智能合约、区块链隐私保护以及区块链技术应用四个部分。第一部分简要介绍区块链的定义、架构、相关技术、分类等;第二部分重点讨论区块链智能合约安全、优化、交易行为、以太坊虚拟机的安全问题;第三部分讨论数字签名在区块链安全与隐私保护中的应用与实例;第四部分介绍区块链技术的几个应用场景,对实现区块链监管的可编辑区块链技术进行讨论。
(本文编辑:刘四旦)
一起阅读科学!
科学出版社│微信ID:sciencepress-cspm
专业品质学术价值
原创好读科学品味
科学出版社视频号
硬核有料视听科学
传播科学,欢迎您点亮★星标,点赞、在看▼
人工智能在网络安全中的 4 大优势和挑战
在本文中,我们将讨论网络安全中的机器学习和人工智能。我们将研究人工智能的好处和挑战、它们在网络安全中的作用以及犯罪分子如何滥用这项技术。
几年来,网络攻击的频率和规模一直在上升。自臭名昭著的大流行开始以来,我们看到了急剧的增长。随着数据安全比以往任何时候都更加危险,越来越多的公司转向人工智能,希望从黑客、网络钓鱼者和其他网络犯罪分子那里获得更强大的数字保护也就不足为奇了。
人工智能不仅仅是增强网络安全的能力,在此处需了解有关AI的一些有趣事实。但首先,人工智能的主要好处是什么?
一、人工智能的应用
顾名思义,人工智能是由机器而非生物展示的智能。
机器学习是人工智能的一个子类别,可识别模式并将其应用于解决问题。目前,AI和ML都在多个领域成功实施,包括:
银行和金融
卫生保健
房地产
零售和电子商务
物流运输
监视
制造业
娱乐和游戏
教育
数字营销
软件开发
最后,人工智能和机器学习在网络安全中不可或缺。
二、 人工智能在网络安全中的作用
人工智能可以更准确地预测和抵御网络攻击,因为它可以快速处理大量数据。
人工智能使现代企业能够用更有效的解决方案取代传统工具,从而提高生产力。因此,据报道人工智能在安全意识培训中非常有效。
考虑到特定网络安全需求而开发的AI解决方案可以部署更具创造性和节省时间的技术,从而加快入职、在职培训和指导过程。
AI驱动的导师可能会成功地扮演导师的角色,自动将一些任务分配给初级网络安全专家并密切关注他们的进展。
因此,人工智能解决方案将有经验的从业者从监督和指导职责中解放出来,并允许专注于其他更复杂或更重要的任务。
机器学习可以非常有效地对抗恶意软件。它可以扫描大量现有恶意软件的数据库,并在出现新的、修改过的版本时阻止攻击。
AI也擅长网络监控。机器学习可以决定用户行为,当发生意外情况时,将其标记为潜在威胁。
您可能知道,人工智能在打击网络恐怖主义方面也显示出很大的潜力。如今,政府、公司和大公司将希望寄托在人工智能上。
人工智能技术被认为有助于改善国土安全和各州保护公民隐私权的能力。更重要的是,人工智能使专门机构能够分析广泛人群的活动并更迅速地识别潜在危害。
人工智能和机器学习的最新发展扩大了进行网络监控的能力,而无需花费大量资源。AI技术现在被广泛用于通过IP网络进行在线监控、接收、传输和处理数据。
好消息是,人工智能可以在不侵犯隐私和数据保护人权的情况下进行监控。
AI允许加密视频数据并防止数据滥用。
人工智能在生物识别身份验证中也发挥着重要作用,这有助于消除对密码的需求。这可能是个好消息,因为惊人的80%的数据泄露与弱密码和不可靠密码有关。
最重要的是,人工智能驱动的解决方案可以在威胁出现时立即发现和解决它们。因此,人工智能使网络安全专家能够积极主动并采用可用的最佳方法来消除威胁。
此外,当需要更快地处理关键漏洞时,人工智能技术可以派上用场。在检测应用程序、数据库等中的弱点时,人工智能的效率提高了40%。
而且它们不仅仅是一些可能偶尔会破坏用户体验并妨碍安装新功能更新的普通错误。我们谈论的是黑客可能用来访问用户私人信息的可利用漏洞。
尽管如此,通过机器学习,教系统如何有效地发现危险、逐行筛选恶意代码并提出可以及时修补系统的可行解决方案变得更加容易。
三、人工智能的主要挑战
尽管AI为网络安全行业带来了所有无可争议的好处,但它绝不应被视为灵丹妙药。人工智能不一定是终结网络攻击的全能解决方案。事实上,它也带来了挑战。
首先,重要的是要记住人工智能技术并非无敌。如果黑客设法访问它们,则可以操纵Ai执行的某些任务。例如,一个支持AI的程序可能会被欺骗,将恶意软件或危险的用户行为标记为安全或正常,或者相反。
在用户中非常流行的生物特征认证也可能被证明是危险的。落入坏人之手的生物识别信息可用于监视或其他侵犯用户隐私的行为。
与密码不同的是,您无法对生物识别数据进行任何更改。这给用户带来了另一个问题。人工智能技术使我们能够收集和处理比以往更多的数据。因此,它可能会导致数字隐私和安全性进一步恶化。
AI带来的另一个挑战是它的实际实施成本。由于大量人工智能仍处于其发展的初级阶段并且处于试验阶段,因此与它相关的成本对于许多企业来说可能太高了。
如果犯罪分子利用人工智能解决方案的力量会怎样?这将使黑客能够非常快速地进行更大、更复杂的攻击。与网络监控和学习用户行为模式一样,犯罪分子也可以应用机器学习来确定某些网络攻击为何以失败告终,并设计出更强大、更有效的攻击模型。
AI还可用于创建类似于受信任软件的恶意软件。它可用于了解有关目标网络模式的更多信息,并在不被检测到的情况下执行危险攻击。
黑客还可以使用人工智能通过深度学习进行更强大的攻击。当研究人员向AI提供数百万泄露的密码并委托它生成新密码时,该程序的成功率达到了惊人的24%。
四、改进安全措施的方法
那些旨在增强其基于人工智能的网络安全系统的公司应该投入足够的时间和精力来配置强大的网络安全政策。建立高效的网络拓扑以更有效地管理所有用户的网络也很重要。
这也将帮助网络安全专家更快地定位和解决问题。人工智能本身可用于设计有效的网络安全策略、政策和记录网络流量模式。
最后,为了充分利用AI驱动的系统和解决方案,公司应特别注意只雇用信誉良好且经验丰富的软件开发人员。有大量公司和个人开发商声称在开发人工智能网络安全解决方案方面具有高素质和经验,这使得选择合适的服务变得更加困难。
除非您拥有一支成熟的专业团队,否则请务必仔细研究所有可用选项,切勿让您的网络安全程序开发靠运气。
最后但并非最不重要的是,那些使用人工智能和机器学习技术的公司和机构应该注意不断改进和更新他们现有的解决方案。
与任何技术一样,人工智能驱动的解决方案往往比您想象的更快过时。因此,及时了解网络安全领域发生的任何变化并及时实施修复和更新至关重要。
那么,人工智能会接管网络安全吗?未来几年,它肯定会在数字安全行业中发挥更突出的作用。到2026年,人工智能市场有望达到350亿美元以上。而且由于它既强大又充满希望,人工智能正在成为网络安全行业不可或缺的一部分。
人工智能为网络安全部门提供了在尽可能短的时间内自动检测威胁和数据泄露、预测和抵御恶意攻击所需的工具。人工智能和机器学习的发展也有助于为初学者网络安全专家提供及时和更有效的培训,并使资深从业者能够专注于更重要的任务。
虽然相对年轻,但人工智能在增强网络安全方面已经走了很长一段路。在这项有前途的技术最终能够充分发挥其潜力之前,还有更多的挑战需要克服并达到新的高度。
系列回顾
⊙秦安:阿富汗陷入内战危机,美国罪不可赦,需警惕其针对中国的网络战争
⊙牟林:中国如何突破西方媒体的封锁?三个路径和三个根本值得重视
⊙牟林:中国支持去殖民化,既要解气,更要有实效,共同迎来新世界
——END——