傅莹:人工智能与国际安全治理路径探讨
清华大学战略与安全研究中心在“人工智能国际治理”框架下,于2019年6月启动了一项与美国布鲁金斯学会进行联合研究的项目,研究中心主任傅莹和美国布鲁金斯学会会长约翰·艾伦(JohnAllen)为项目总牵头人。围绕课题人工智能技术在安全领域的挑战和治理问题,两国专家进行了一系列二轨(非官方)对话和研讨,在讨论的基础上分别就各项议题撰写了论文。
清华大学人工智能国际治理研究院名誉院长、清华大学战略与安全研究中心主任、外交部前副部长傅莹发表文章称,尤其需要关注人工智能技术武器化的道德和技术风险问题。人工智能不应成为一场“零和游戏”,技术突破最终应使得全人类受益!具体请看全文。
人工智能与国际安全治理路径探讨
近年来,人工智能技术的快速发展带来了巨大机遇,但是技术革命也往往伴随不可预知的安全挑战,尤其需要关注人工智能技术武器化的道德和技术风险问题。许多国家的专家和学者呼吁禁止发展可以自主识别并击杀人类目标的智能武器,更不应该容许它们执掌人类生死。然而,全面禁止人工智能武器很难达成全球共识,即便能开启相关讨论和谈判也将旷日持久。
从目前的趋势看,人工智能武器化是不可避免的。更可行的做法可能是要求人工智能赋能武器的发展符合现有国际法规范。为此,各国需要就如何进行风险防范寻求共识,共同努力构建治理机制。在与美方进行二轨讨论时,我们的焦点在于如何设定人工智能赋能武器的攻击“禁区”,如何依据国际法律和规范开展对人工智能武器的监管,以及如何鼓励采取克制态度以限制对人工智能数据的军事化滥用。
人工智能的军事安全挑战
人工智能赋能武器系统存在诸多潜在挑战。一是人工智能内在的技术缺陷使得攻击者难以限制打击的损害范围,容易使得被打击方承受过大连带伤害,从而导致冲突升级。人工智能赋能武器不仅应该在实施打击时区分军事目标和民用目标,还需要防止和避免对民用目标造成过分的附带或间接损害。然而,现有人工智能技术条件在能否保证武力使用过程中完全满足上述条件方面,是存在不确定性的。
二是当前以机器学习带动的人工智能技术发展需要大量数据,不能完全避免基于大数据训练的算法和训练数据集将偏见带入真实应用系统,因此,不能排除人工智能给决策者提供错误建议的可能性。进而,当训练数据集受到其他国家的污染,致使系统提供错误侦查信息时,也有可能让军事决策者做出错误判断和相应的军事部署。
三是人机协同的挑战是人工智能军事化的终极难题。机器学习和大数据处理机制存在局限。无论是行为主义的强化学习、联结主义的深度学习,还是符号主义的专家系统都不能如实准确地反映人类的认知能力,比如直觉、情感、责任、价值等。人工智能的军事运用是人—机—环境的综合协同过程,而机器在可解释性、学习性、常识性等方面的不足,将放大发生战场冲突的风险,甚至刺激国际危机的螺旋上升。
人工智能安全治理路径探讨
对话双方一致认为,各国需要采取军事克制态度,避免人工智能武器化给人类带来重大损害。各国应该禁止没有责任和风险意识的辅助决策系统。在使用人工智能赋能的武器时,需要限制其打击的损害范围,防止造成连带伤害,避免冲突升级。此外,军事克制的内容还应该反映在公共教育当中。由于人工智能技术具有易于扩散的特点,它有可能流入某些黑客手里,进而将人工智能技术用于有害公共安全的行为中。
人工智能赋能武器的使用如何与国际法的基本原则保持一致,是安全治理研究中的重点所在。《联合国宪章》规定,除非得到联合国安理会的授权,否则成员国不得使用武力,或者是出于自卫的目的才能使用武力。因此,国家出于自卫目的而使用武力时,所使用武力的强度和规模须与受到的攻击或者受到的威胁的严重性相称。在讨论中,中方专家特别提出,各国须承担法律责任,主动推动和实现在涉及人工智能的军事行动中国际规范的建构。同时需要确定人类参与的阈值,以保证智能武力的使用不会造成过度伤害。因为人工智能赋能的武器平台很难评判什么是必要的、合适的、平衡的攻击,所以人类指挥官的主观能动性应当得到尊重。
此外,人工智能数据的安全必须得到保证。应该对数据挖掘和采集的过程、数据标注和分类、数据使用和监管进行规范和限制。智能武器训练数据的收集过程和手段应当遵守国际法律,收集的数据数量应达到一定规模。需要确保数据标注和分类的质量和准确性,避免形成错误模型和导致决策者做出错误判断。在数据使用过程中,需要关注使用目标和数据的污染问题。有中方学者建议给智能武器的自主化程度分级。例如,分为半自主化、部分自主化、有条件自主化、高度自主化和完全自主化五级。对自主化程度进行分级,有利于更好地确认和保障人类的作用,从而切实有效地实现对人工智能及自主武器系统的管理和控制。
中美人工智能全球治理合作
现阶段是构建人工智能国际安全规范的关键窗口期。目前中美两国是在人工智能技术研究和应用发展最快的国家,两国需要在这个领域加强协调与合作。其他国家也表示出对人工智能应用的安全担忧,说明人工智能治理是人类共同的难题,不是一国两国能够解决的。中美开展对话与合作至关重要,将能够为全球人工智能治理合作贡献智慧。因此,中美两国应就推动构建国际层面的规范和制度进行正式讨论,在各自利益关切的基础上探索合作领域,互换和翻译相关文件,以政策沟通和学术交流的方式降低两国在这一领域影响双边关系和国际安全的潜在风险。
近年来,中国积极释放合作信号,2020年11月21日,习近平主席在二十国集团领导人第十五次峰会上强调,中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展。2020年9月8日,国务委员兼外长王毅提出《全球数据安全倡议》,包括有效应对数据安全风险挑战应遵循的三项原则,表示希望国际社会在普遍参与的基础上就人工智能安全问题达成国际协议,支持并通过双边或多边协议形式确认倡议中的有关承诺。中国在发展人工智能技术的同时,也高度重视和积极推进相关国内治理建设。2018年中国发布《人工智能标准化白皮书》列出了四条伦理原则,包括人类利益原则、责任原则、透明度原则、权责一致原则。中国已经准备好与美国和其他国家地区在人工智能治理方面开展合作。我们相信,人工智能不应成为一场“零和游戏”,技术突破最终应使得全人类受益。
傅莹:人工智能对国际关系的影响初析
【文/傅莹】
内容提要
本文重点分析人工智能如何从国际格局和国际规范两个方面影响国际秩序的变迁。在国际格局方面,人工智能有可能在经济和军事领域影响国家间的力量对比,非国家行为体的能力也将前所未有地扩大,围绕科技的国际竞争将更加激烈。在国际规范方面,人工智能有可能改变战争的形式和原则,并对现行的国际法律和伦理道德造成冲击。文章认为,人工智能技术带来的安全和治理挑战是需要全人类共同面对的问题,各国应从构建人类命运共同体的视角看问题,从共同安全的理念出发,讨论未来人工智能的国际规范。文章提出基于福祉、安全、共享、和平、法治、合作的六项原则。
清华大学国际战略与安全研究中心于2018年启动的人工智能与安全项目小组,重点探讨人工智能技术的发展对国家安全和国际关系的影响以及构建共同准则的可能性。本文是基于对项目组相关信息的汇总而对人工智能与国际关系的相互影响的初步研究。
1950年,英国科学家图灵提出了人工智能的概念。1956年,首届人工智能研讨会在美国新罕布什尔州达特茅斯举行,人工智能作为一门科学正式为科学界所承认。1997年,IBM计算机程序“深蓝”赢得与世界国际象棋特级大师卡斯帕罗夫的六盘大战。进入21世纪的第二个十年,人工智能技术的研究和开发加快了步伐。2014年,谷歌AlphaGo战胜世界围棋冠军李世石。60年后的今天,人工智能在人类越来越多的生产和生活领域得到广泛应用,在部分专门领域接近甚至超过人脑的表现。作为一种有潜力改造人类社会面貌的泛在性技术,人工智能在科技、产业、军事、社会、伦理等领域被广泛讨论。
那么,人工智能是否会对国际关系产生影响?会产生什么样的影响?本文试图对这些问题作一些探讨。需要说明的是,人工智能技术本身存在复杂性、难以说明性和不确定性,笔者非人工智能技术专家,本文只是根据已经发生的人工智能事件或学术界普遍认可的发展趋势,来分析人工智能对国际关系产生的影响,并试图探讨构建共同准则的必要性和可能性。
诚然,对于科学技术会如何影响现代国际关系有不少过高的预期。例如,阿尔温·托夫勒在1980年出版的«第三次浪潮»一书中预测,未来世界将充斥核武器风险,濒临经济和生态崩溃,现存政治制度将迅速过时,世界将面临严重危机。这类预测往往高估了科技给人类带来的困难,却低估了人类解决困难的意愿和能力。冷战后,在全球化的大背景之下,多边主义逐渐成为国际共识,国际防止核武器扩散体系的有效性,应对气候变化的全球运动和各国由此而不断强化的应对环境变化的合作,以及世界范围内的和平运动的发展,都显示了人类在维护和平和应对挑战上的理念共识和负责任态度。科技造成的问题,可以通过科技本身的不断再进化而得到解决,人类也需要通过伦理道德和法律来构建严密的防范体系。实际上,每一次科技革命都加速了全球化的进程,促使一系列全球性问题被纳入国际政治的议事日程中来,世界也因此变得更加透明和更加融为一体
1.我们讨论的是什么?
在进入正式讨论之前,需要明确几个问题。
第一个问题,我们讨论的是什么人工智能?是狭义的、能够模拟人的个别智能行为的人工智能,比如识别、学习、推理、判断?还是通用人工智能,拥有与人类大脑相似的自主意识和自主创新能力?是弱人工智能,为解决特定、具体任务而存在,只擅长语音识别、图像识别、翻译某些特定素材的人工智能,例如谷歌的AlphaGo、科大讯飞的智能翻译器?还是强人工智能能够思考、计划、解决问题,能够进行抽象思维、理解复杂理念、快速学习、从经验中学习等人类级别的人工智能,例如电影«人工智能»中的小男孩大卫、«机械姬»中的艾娃?抑或是未来的超级人工智能,即跨过了“奇点”,计算和思维能力远超人脑,“在几乎所有领域都比最聪明的人类大脑聪明很多,包括科学创新、通识和社交技能”(牛津哲学家NickBostrom对超级智能的定义)的所谓人工智能合成人(Synthetics)?
我们讨论人工智能对国际关系乃至国际格局的影响,只能限定在已知、基于大数据和深度学习技术,以算力、算法和数据为三大要素的人工智能技术及其应用上。我们还无法讨论那些尚未获得突破的、拥有全大脑仿真技术的未来人工智能技术。目前应是依据已经存在和能大致预见到的人工智能技术及其发展趋势,来探讨其已经和可能对国际关系产生的影响。
第二个问题,人工智能能否影响国际关系进而影响到国际秩序?目前看,答案是肯定的。历史上,技术革新和传播曾经无数次革命性地改变了一国或多国命运,进而改变了地区格局甚至世界形势。麦克尼尔父子在«麦克尼尔全球史:从史前到21世纪的人类网络»一书中,生动地描写了技术革命对军事、政府组织方式、信仰,进而对国家间权力转移和地区格局演变的决定性影响。书中谈到,公元前1700年左右,战车革命改变了美索不达米亚、埃及、印度、中国黄河地区等区域的权力格局,例如,雅利安人入主印度北部和商朝的兴起。公元前1200年后,铁冶炼技术的出现和传播,使装备着相对价格低廉的铁甲胄和兵器的普通步兵,有条件将精英驾驭的战车掀翻在地,更加廉价的武器装备、更大规模的军队、官僚统治的巩固等条件的组合,使亚述、波斯等农业帝国的崛起成为可能。公元前7世纪,马弓手的数量和技术又一次打破欧亚大陆的军事政治平衡,大草原上的游牧民族再度取得对农耕民族的优势。
再举一例,核技术的出现改变了现代世界的政治面貌,进一步稳固了二战结束时形成的大国权力格局,五核国的身份使得美、苏(解体后是俄罗斯)、英、法、中保持了联合国安理会常任理事国地位,而且产生了为和平目的利用核能、有核国家承担不扩散核武器义务、允许无核国家获取和平核能技术等一系列国际规范,催生了核战争等于人类毁灭、核扩散不义且非法等国际价值观,形成了«不扩散核武器条约»«全面禁止核试验条约»、联合国核裁军谈判机制、全球核安全峰会、东南亚无核区等一系列国际制度安排。
人工智能被认为具有像核能一样的军民两用性和改变国际实力对比的颠覆性。2017年7月,哈佛大学肯尼迪学院贝尔福科学与国际事务中心发布了«人工智能与国家安全»报告,认为未来人工智能有可能成为与核武器、飞机、计算机、生物技术不相上下的变革性国家安全技术。因此,将人工智能纳入能够影响国际关系的讨论范畴是合理的。
人工智能甚至可能影响国际秩序的变迁。北京大学王缉思教授认为,国际秩序包含两项基本内容,一是主要国家和国家集团的权力结构和实力对比,二是处理国家间关系应遵循的规范。清华大学阎学通教授认为,国际秩序是“国际体系中国家依据国际规范采取非暴力方式解决冲突的状态”,其构成要素为国际主流价值观、国际规范和国际制度安排。他还认为,导致国际秩序变化的原因是国际格局的变化,但国际格局却不是国际秩序的构成要素;建立国际新秩序的性质是国际权力的再分配,即国际制度再安排的核心内容。两位学者在分析国际秩序时都强调了国际格局、国际规范两大因素。人工智能有可能通过改变国际行为体的力量对比和相互关系,冲击现有国际规范并催生新的国际规范,从而从国际格局和国际规范两个方面影响国际秩序的变迁。
2.人工智能将如何影响国际格局?
首先,人工智能将从经济上影响国家间的力量对比,甚至引发新一轮大国兴衰。
保罗·肯尼迪在«大国的兴衰»一书中指出,从长远看,在每个大国经济的兴衰与其作为一个世界性大国的兴衰之间有一种显而易见的联系。2017年6月,普华永道发布的«抓住机遇——2017夏季达沃斯论坛报告»预测,到2030年,人工智能对世界经济的贡献将达到15.7万亿美元,中国与北美有望成为最大受益者,总获益相当于10.7万亿美元。2018年9月,麦肯锡全球研究所发布的«前沿笔记:用模型分析人工智能对世界经济的影响»报告认为,人工智能将显著提高全球整体生产力。去除竞争影响和转型成本因素,到2030年,人工智能可能为全球额外贡献13万亿美元的GDP增长,平均每年推动GDP增长约1.2%。这堪比或大于历史上其他几种通用技术(比如19世纪的蒸汽机、20世纪的工业制造和21世纪的信息技术)所带来的变革性影响。报告还指出,占据人工智能领导地位的国家和地区(以发达经济体为主)可以在目前基础上获得20%~25%的经济增长,而新兴经济体可能只有这一比例的一半。“人工智能鸿沟”可能会导致“数字鸿沟”的进一步加深。人工智能可能改变全球产业链。以工业机器人、智能制造等为代表的“新工业化”将吸引制造业“回流”发达经济体,冲击发展中国家人力资源等比较优势,使许多发展中国家提前“去工业化”或永久性失去工业化的机会,被锁定在资源供应国的位置上。人工智能的开发和应用需要大量资金,科技含量高,且有可能导致就业结构变革,使得高重复性、低技术含量的工作逐渐消失。
此外,麦肯锡在2017年的另外一份报告中,根据对46个国家和800种职业进行的研究作出预测,到2030年,全球将有多达8亿人会失去工作,取而代之的是自动化机器人;届时,全球多达1/5的劳动力将受到影响。全球将发生类似在20世纪初的大规模岗位转变,当时全球大部分岗位从农业转为工业。简言之,就是用资本和技术替代劳动力。同时,人工智能技术的广泛应用也将增加对这方面的专业人才的需求。
研究显示,有3种类型的国家最有可能从人工智能技术的发展中受益。第一类是有人工智能先发优势的国家,比如美国和中国,都被看好。第二类是资本和技术密集、同时人口较少或处于下行趋势的国家,比如日本、韩国、新加坡,既有发展人工智能的资本、技术条件,又能借助人工智能的发展弥补人口总量不足或呈下降趋势、人口结构老龄化等劣势。第三类是拥有更多科学家、数学家、工程师的国家,或重视科学、技术、工程、数学(STEM)相关专业教育的国家。
其次,人工智能将从军事上改变国家间的力量对比。
军事智能化的鼓吹者认为,人工智能将颠覆战争形态和战争样式。机械化战争是以物释能,靠的是石油和钢铁;信息化战争是以网络聚能,靠的是信息和链接。而根据目前的预期,一旦战争进入智能化时代,将是以智驭能,打的是机器人和自动化战争。
可以预见的是,在智能化条件下,战斗人员、作战概念、制胜机理等战争要素都将发生改变。在传统的战争中,即便存在敌对双方在武器装备、训练水平上的差距,劣势一方凭借有利的天时地利、超人一等的计谋、先进的战术等,尚可一战。比如,在伊拉克和阿富汗战争期间,简易爆炸装置就让美军吃尽了苦头。而在智能化战争条件下,一方在人工智能上的技术优势会迅速形成战场上的压倒性优势,使劣势一方无法形成有效的观察—判断—决策—行动循环,始终处于被动挨打的状况。布鲁金斯学会在«人工智能改变世界»报告中提出了“极速战”(hyperwar)的概念,即战争是一个与时间赛跑的过程,决策最快和执行最快的一方通常会占上风。在人工智能辅助下的指挥和控制系统,其决策速度会大大超越传统战争模式,加上能够自主决定发射致命武器的自动武器系统,将大大加速战争进程,以至于需要创造一个新术语“极速战”来描述这种战争模式。关于后者,2018年4月26日“大西洋”网站刊发的«当排爆机器人变成武器»一文中,就用大量分析说明,军事机器人可以显著降低路边炸弹的威胁。
人工智能还将引发军事装备的革命性变化,无人自动性致命武器的集群式作战,可能成为未来战争的主角和主要作战方式。设想中的空中无人机“蜂群”、水下无人潜艇“狼群”、地面机器人、无人坦克“蚁群”等一旦出现,将重构“消耗战”“人海战术”的价值,使得舰母、F-35战斗机等复杂而昂贵的大型武器平台,从战争成本和作战效能的综合角度看变得不那么具有优势。可以想象一下,当单架成本上亿美元的F-35战斗机对战单价在几千美元的武装无人机集群时,无异于“大炮打蚊子”。
需要说明的是,人工智能对军事的影响尚存在很大不确定性,这种影响可以有多大、如何影响,都并不确定。在2018年7月清华大学第七届世界和平论坛“人工智能与安全”分论坛的讨论中,有专家提出,虽然目前大致可以判断出机器学习、工业机器人、材料科学等技术的未来发展趋势,但这些技术结合起来给未来战争造成的具体影响尚无法准确预估。20世纪前30年,当时的德英法意等欧陆军事强国都研发出了坦克、飞机、无线电通信技术等。但是,只有当德国在二战中遂行了“闪电战”后,世界才发现这些新技术作为一个整体竟会给战争带来如此颠覆性的改变。现在,无论“算法战”还是“蜂群”战术,战略界的热议都还是从单项技术出发分析其对作战的影响。如果不能从整体上认识人工智能技术的军事运用,设想出来的应对措施有可能成为昂贵而无用的新“马其诺防线”。
再次,按照目前的研究成果看,人工智能对国际格局的影响可以概括为三个方面。
一是可以显著增加全球财富。但是财富在国家间的分配将更加不平衡,人工智能技术的引领国受益多,落后国受益少,人工智能将进一步拉大国家间经济总量和质量差距。新增财富在地区间的分配也将是不平衡的,东亚地区有可能成为人工智能技术的最大受益者,美国有条件巩固其世界经济中心的地位,而东亚的地位也会进一步上升。与此同时,财富在同一国不同地区、不同行业、不同群体中的分配可能进一步失衡,相关国家国内政治平衡也将受到不同程度的冲击。二是在资本、技术、劳动力三要素中,人工智能有利于具有前两项要素比较优势的国家,不利于劳动力要素优势的国家。三是当前人工智能技术的核心要素是算法、算力和数据,哪个国家拥有的计算资源越多、研发的算法越先进、掌握的数据越多,就越有可能获得经济优势。未来可能出现“算法博弈”“算法霸权”,数据将成为国家战略资源。四是由于人工智能技术迭代速度快,在“马太效应”作用下,具有先发优势的国家将强者恒强,后发国家越来越难以追赶,形成国际社会的“阶层固化”。由于当前人工智能技术的发展建立在计算机技术进步基础之上,并与数字经济发展存在紧密关联,因此数字经济和技术领先的国家将在人工智能国际竞赛中占得先机。
最后,人工智能带来的经济和军事变化,在影响国家间力量变化的同时,还可能意味着国际趋势的变化。
一是北升南降还是南升北降?近年随着金融危机影响消退,发达经济体逐步复苏,而金砖国家相继出现困难,发展中国家追赶步伐放慢,南升北降的趋势开始减缓。如果不论其他因素,单就人工智能技术的发展而言,很可能加剧这一势头。一方面,发达经济体有条件维持甚至扩大对发展中国家的整体优势。另一方面,发展中国家之间的实力、利益分化也可能进一步加剧。
二是多极化还是两极化?阎学通教授认为国际格局的趋势是中美两极化,而不是多极化。人工智能技术的发展为他的观点提供了一定的支持。国际上很多人工智能排名都不约而同地将美国和中国列为第一梯队。美国作为人工智能的发源地,在创新精神、基础理论、核心算法、高端芯片、从业人员规模和素质等方面,明显地领先全球。而中国在人脸识别、语音识别等领域走在前面,同时拥有海量数据和应用场景等其他国家难以比拟的天然优势。中国拥有全球最多的互联网用户、最活跃的数据生产主体。2018年8月20日,中国互联网络信息中心发布的第42次«中国互联网络发展状况统计报告»显示,截止2018年6月,中国网民规模达到8.02亿人,每年产生的数据约占全球13%。中国拥有更多的人工智能相关专业大学生,人才供给上更具潜力。根据腾讯研究院发布的«中美两国人工智能产业发展全面解读»报告,截至2017年6月,全球人工智能企业总数为2542家,其中美国有1078家,占42%,从业人员约为7.8万人;中国有592家,占23%,从业人员为3.9万人;其余872家企业分布在瑞典、新加坡、日本、英国、澳大利亚、以色列、印度等国家。人工智能技术竞赛目前主要是巨头企业之间的角力,而主要的互联网巨头也都在将自己的资源转向人工智能。在世界互联网巨头企业中,美国有苹果、谷歌、微软、亚马逊、脸书5家,中国有百度、阿里巴巴、腾讯3家。美中作为人工智能的世界前两个强国,同时也是全球综合国力的前两强,与其他国家的差距可能会进一步拉大。
三是非国家行为体的权力扩大。人工智能将赋予巨头企业前所未有的权力。2016年发生的“剑桥分析”公司通过脸书影响美国大选的事件,显示了这些企业可以有多大的政治和社会影响力。未来,一些传统的政府职能,如信息统计和收集、公众信息发布、社会福利发放还有公共政策讨论、评估与反馈,以及涉及军事和外交方面的舆论活动等,都可能被人工智能企业取代。在信息即权力的时代企业行为对国内政治、进而对国际政治的影响力还将不断增大。美国斯坦福大学和美国Infinite初创公司联合研发了一种基于人工智能处理芯片的自主网络攻击系统。该系统能够自主学习网络环境并自行生成特定恶意代码,实现对指定网络的攻击、信息窃取等操作。通过人工智能自主寻找网络漏洞的方式,将使网络作战行动更加高效,攻击手段更加隐蔽和智能。传统的防护方式是基于病毒库和行为识别,将无法应对灵活多变的人工智能病毒生成系统,其恶意代码的生成、执行、感染具有更强的隐蔽性,这将使网络安全环境面临更大的挑战。
更令人担心的是,人工智能也有可能为恐怖分子、网络黑客、罪犯等提供新的犯罪手段。例如,恐怖分子可以远程操纵无人机或无人驾驶汽车,对目标实施暗杀和破坏活动,黑客可以利用大数据武器对关键基础设施进行更加复杂和自动化的大规模攻击。经常被提到的案例包括:俄罗斯在叙利亚的赫梅米姆和塔尔图斯军事基地遭受武装分子无人机攻击,委内瑞拉总统马杜罗在演讲时遭受无人机袭击,“想哭”病毒的爆发,等等。加拿大学者阿查亚提出了“复合世界”概念。毫无疑问,人工智能将增加世界的复合化,包括政治权力的去中心化、更多元的行为主体的出现,乃至政治和意识形态的多样性,因此产生更加包容和更多层次的治理需求。
四是加剧科技竞争。人工智能技术的发展及其应用,进一步巩固了科技在国际竞争中的重要地位。2016年5月,美国国家科技委员会国土与国家安全分委会发布的«21世纪国家安全科学、技术与创新战略»提到,科技已经成为一个国家国际竞争力最关键的成分。没有科技创新就没有国家安全。美国能够在国际竞争中保持优势,很大程度上有赖于其科技创新力量。国内许多学者认为,中美博弈已经率先在科技领域展开了。2018年,美国先后对两家中国公司禁售芯片,更有甚者,公开阻止盟友国家采用中国华为公司的5G技术。同年11月19日,美国商务部工业安全署列出了拟议管制的14个“具有代表性的新兴技术”清单,其中对人工智能和机器学习的技术分类和列管最为详尽。可以预见,在人工智能时代,围绕科技的国际竞争将更加激烈,竞争的结果也将在很大程度上影响国际格局的走向。
3.人工智能将如何影响国际规范?
人工智能可能对现行国际规范带来一系列冲击。
第一,人工智能有可能改变战争的内涵和形式。美国学者斯蒂芬·平克指出了人类相互间使用暴力减少的历史大趋势,认为“今天我们也许处于人类有史以来最和平的时代”。王缉思对当今世界战争明显减少的现象给出了5个方面的解释,包括:大国发动战争可能付出的成本和代价大大高于可能的收益,通过非战争手段也可以获得过去需要通过战争才能获得的收益,国家间相互了解的增加以及危机预防和管控机制的普遍建立,国际军控机制的建立,和平作为一种国际价值观的深入人心。而人工智能的发展有可能使国家和非国家行为体在是否使用军事手段解决矛盾的选择中,顾虑下降。至少从理论推演的结果看,人工智能能够从决策者、军队、民意3个层面减少对战争的制约,降低战争门槛。无人武器使得战争行为者的人员伤亡预期可以降到近乎“零”。人工智能技术的快速迭代和新材料的广泛运用将极大地压缩战争的物理成本,让战争的经济适用性上升,甚至变得有利可图。这使得决策者发动战争的诱惑增大、顾虑减少。“超视距”作战的可能性和机器人战士的出现,将进一步从心理上解放士兵。未来战争中,士兵或许不必上战场,作战任务可以通过事先设计好的算法,由“人工智能将军”指挥无人自动武器完成。“极速战”可以极大压缩战争时间,在出现民意的反弹之前战争就可以结束了。这些可能改变人们对战争的立场,让暴力回潮。
2018年10月,美国陆军协会陆战研究所发布的报告«影响力机器——让自动化信息作战成为战略制胜机制»称,在人工智能的帮助下,利用算法生成内容,实施个性化的目标锁定和采用密集的信息传播组合,可以生成“影响力机器”,实施信息作战,由此能产生指数级的影响效应。该报告认为,“影响力机器”信息作战在战略层面上的影响力远胜于人工智能技术在其他领域的应用。因为它可以在机器学习的辅助下,对情感、偏见和价值观等指标进行筛选,并锁定那些心理最易受到影响的目标受众,然后将定制的“精神弹药”快速密集的“射向”目标群体,达到影响其心理、操纵其认知的目的。
第二,人工智能可能冲击全球战略稳定。约瑟夫·奈曾经谈到,核武器的出现使军事力量作为维护安全的手段走到了极限,甚至走向其反面。人们认识到,在核战争中没有赢家,核武器可能使全人类面临灭亡的危险。而人工智能将挑战经典的“相互确保摧毁”理论。兰德公司在2018年发布的«人工智能对核战争风险的影响»报告中分析认为,到2040年,人工智能技术的进步使报复性核反击力量成为目标并被摧毁的可能性大大增加,从而削弱“相互确保摧毁”的基础,打破核战略平衡。即使各国无意发起先发制人的攻击,也会倾向于追求先发制人的能力,以此作为与对手讨价还价的手段,而这无疑将破坏战略稳定。
第三,人工智能的自身特点让建立相关国际军控和防扩散机制变得困难。在2018年7月清华大学第七届世界和平论坛“人工智能与安全”分论坛的讨论中,«智能时代的战略竞争»报告的作者之一格里戈利·艾伦(GregoryC.Allen)说,人工智能也有军民两用性,但其军事应用不同于核,更像电。如果可以认为核是一种黑白技术,只存在“有”或“没有”两种状态,一国要么是有核国,要么是无核国。而电则是一种光谱技术,就像红橙黄绿蓝靛紫七色光有不同的波长和媒介反射率一样,不同的国家都可以用电,只是应用方式和程度会有很大差异。人工智能在军事上的应用更像电,无法禁止哪一个国家使用人工智能。就像美苏冷战期间的军备竞赛一样,未来很可能出现人工智能强国之间的算法竞赛。问题是,当年美苏通过军控谈判签署了一系列核导军控协议,确定了基本规则,未来的人工智能强国间能否本着同样的精神达成算法控制协议呢?艾伦认为,从目前大国关系态势看,达成这样的共识几无可能;然而,考虑到未来无序发展的风险,大国又必须认真考虑就此进行共同探讨的必要性。
第四,人工智能给国际法带来了一系列的问题。在应用人工智能武器的条件下,国际人道法和战争法的有关原则是否能够继续适用?比如,区别对待军民目标的“区分原则”、禁止过分攻击的“比例原则”、非军事手段无法达成目标的“军事必要原则”,对作战手段的限制等。有没有必要针对人工智能武器制定专门的规则?在智能化战争条件下,如何区分战斗人员和非战斗人员?战争机器人是否享有人道待遇?人工智能武器是否对其造成的损害有承担责任的能力?如果它不具备承担责任的能力,那责任主体应该是武器的制造者还是使用者?当人工智能武器侵犯国家的主权原则时,它的行为能否触发国家责任?
第五,人工智能可能冲击国际关系民主化。人工智能的发展有可能固化国际权力结构,深化小国、弱国对强国、大国的科技、经济和安全的依赖。当“赢者通吃”的人工智能技术竞争和商业竞争规律复制到国际关系上时,必然会冲击大小、强弱国家间的主权平等关系。当主要大国之间的竞争加剧时,结盟关系是否会再度成为弱国的必然选择呢?而结盟本身就是一种盟主和盟友之间的不平等关系。
第六,人工智能对全球治理提出了新的课题。人工智能的发展对于解决当今世界面临的三大困境(老龄化、数字化和气候变化)都具有意义。而更大的挑战也许是人工智能带来的对于“人”的价值的进一步思考。一些国家和城市也开始探索试行“普遍个人收入”制度(UPI,universalpersonalincome)。但这必定是一个需要汇聚全球智慧与力量共同去思考和实践的问题。
在规则与制度层面上,以数据为例,在近代人类历史上,国际社会先后就自然人的跨境移动、船只和飞行器等交通工具的跨境移动、资本和商品的跨境移动等,形成了普遍认同的规则和制度安排。当前,数据作为一种资源的重要性与日俱增,随之而来的问题是:数据跨境转移应遵循什么规则、在什么样的制度安排下进行?数据的产生方、使用方、输出方、接收方等利益相关各方分别享有什么权利、承担什么义务?数据本土储存和跨境转移之间是什么关系?国家与数据企业之间是什么关系?这些都将是未来全球治理的难题。2019年G20的东道主日本已经提议将全球数据治理列入G20的议程。
4.我们该如何选择?
目前,即便走在人工智能技术最前列的科研人员也承认,人类距离制造出达到人类智慧的机器人,还有比较长的距离。目前,人工智能可能带来的安全威胁更多是人类本身利用人工智能去威胁人类。因此,人类如何进行自我约束是人工智能技术进步过程中最为紧迫的道德问题。
2015年10月14日,一个名为“智慧平方”的组织在纽约邀请几位国际问题专家进行了一场辩论,题目是:中美是长期敌人吗?。芝加哥大学政治学教授米尔斯海默不出所料地讲起了“大国政治的悲剧”。作为反方,陆克文有一句话令人记忆犹新。他说,外交的挑战就是要确保阻止战争的发生,相信我们能够做到这一点。陆克文的逻辑也适用于人工智能。人工智能是一种技术,可以为善,也可以作恶。尽管对善、恶的判断和选择是人类一个古老和难有完全一致看法的哲学命题,但是在关系到人类根本生存这样的大问题上,拥有理性和现代文明的人类应该可以决定向善还是向恶。
2018年6月,笔者应邀参访科大讯飞北京公司,其间讨论到未来是否会出现人工翻译与机器翻译之间的竞争时,公司负责人表示,发展人工智能翻译技术的目的不是取代人,而是助力翻译工作更加准确和轻松。这给笔者以启发。毕竟,就像毛泽东同志所说的“决定战争胜败的是人民而不是一两件新式武器”。人类开发人工智能技术的目的是服务于人类,是善用还是恶意应用最终取决于掌握技术的人。
当前国际上关于秩序的讨论十分热烈。其中,中美两国学界最为关心的,也为世界其他各国所普遍关注的是:美国与中国是否会展开“NEWCOLDWAR”从而导致冷战时的平行秩序再度出现?2018年3月,笔者与来北京参加中国发展高层论坛的美欧人士交谈时,观察到他们对中美关系的前景比较悲观,认为中国的快速增长对美国来说是结构性威胁。当笔者问道:中美两国除了走向对抗,有没有别的选择?英国«金融时报»副主编马丁·沃尔夫回答说,你们没有什么可选择的,中国不会停止增长,美国不会停止担忧。(Youhavenochoice,youcan’tstopgrowingandtheycan’tstopworrying.)除非出现一种情况,例如发生来自火星的入侵,人类面临共同的敌人,届时美中才有可能真正团结起来。
如果用零和博弈和追求绝对安全的眼光看待世界,那毫无疑问,人工智能会像20世纪40、50年代的原子弹、卫星一样,成为大国竞争的新焦点,并成为将世界划分为两种或多种平行秩序的助推动力。但是如果我们采用人类命运共同体的视角,本着共同安全的理念看问题,那么就不难认识到,人工智能技术带来的安全和治理挑战是需要全人类共同面对的问题。如此,我们就不难本着平等协商的精神,共同探讨各利益攸关方都能够接受的规范。那么,人工智能是否会成为那个将中国、美国、俄罗斯以及世界其他国家团结在一起的“火星入侵”式的挑战呢?
技术专家们在大声疾呼。在2018年的乌镇第五届世界互联网大会上举办的“网络空间的中美关系”分论坛上,原美国联邦通信委员会专家戴夫法伯呼吁,应尽早就人工智能制定国际准则,避免重演核武器技术产生时因国际共识和自律的迟到而导致的悲剧及其影响至今的严重后果。
现实情况是,中美两国在科学技术研究领域的交往与合作是相当深入的。根据科睿唯安提供的人工智能领域科技文献数据,从2013年到2017年,全球参与评估的167个国家/地区在WOS学科“计算机、人工智能”发文排名中,中国大陆位居第一,发文量达到59573篇,占25.02%,其次是美国,发文量为32527篇,占13.66%。其中,中美两国国际合作论文数量增长最快,例如,过去5年中国大陆开展国际合作最多的对象是美国,合作论文量是4307篇,同样,美国开展国际合作最多的国家也是中国大陆,远远多于与其他国家的合作论文量。
国际上围绕相关问题的探讨和研究已经在步步深入。例如,联合国裁军委致命性自主武器系统问题政府专家组的讨论就涉及要注意致命性自主武器系统可能对国际安全产生的影响。例如,致命性自主武器系统技术方面的军备竞赛,扩大发达国家与发展中国家之间的技术差距,以及可能降低使用武力的门槛等;就国家对其管辖下的致命性自主武器系统负有法律责任达成非正式普遍谅解;探讨参照«特定常规武器公约»议定书的形式,制定一项具有法律约束力的文件,预防性地禁止致命性自主武器系统。
中国领导人于2018年9月在致2018世界人工智能大会的贺信中阐明了中国的立场和态度。他指出,新一代人工智能正在全球范围内蓬勃兴起,为经济社会发展注入了新动能,正在深刻改变人们的生产生活方式。把握好这一发展机遇,处理好人工智能在法律、安全、就业、道德伦理和政府治理等方面提出的新课题,需要各国深化合作、共同探讨。中国愿在人工智能领域与各国共推发展、共护安全、共享成果。
基于清华大学人工智能与安全项目小组的研究结果,我们提出了关于人工智能的六点原则:一是福祉原则。人工智能的发展应服务于人类共同福祉和利益,其设计与应用须遵循人类社会基本伦理道德,符合人类的尊严和权利。二是安全原则。人工智能不得伤害人类,要保证人工智能系统的安全性、可适用性与可控性,保护个人隐私,防止数据泄露与滥用。保证人工智能算法的可追溯性与透明性,防止算法歧视。三是共享原则。人工智能创造的经济繁荣应服务于全体人类。构建合理机制,使更多人受益于人工智能技术的发展、享受便利,避免数字鸿沟的出现。四是和平原则。人工智能技术须用于和平目的,致力于提升透明度和建立信任措施,倡导和平利用人工智能,防止开展致命性自主武器军备竞赛。五是法治原则。人工智能技术的运用,应符合«联合国宪章»的宗旨以及各国主权平等、和平解决争端、禁止使用武力、不干涉内政等现代国际法基本原则。六是合作原则。世界各国应促进人工智能的技术交流和人才交流,在开放的环境下推动和规范技术的提升。这些原则可以作为讨论和制定人工智能国际规则的基础。
虽然这些原则尚显空泛和抽象,如何细化和如何与各国专家深入探讨,寻找最大公约数,还是一个需要花时间去努力争取的目标。值得注意的是,许多从事高端科研的青年专家已经提出为人类的共同利益而主动自律的问题,不少企业界人士表示要在人工智能的技术研究和产品制造中自觉强调道德和道义的因素,不会从事有损人类福祉的研究和制造工作。
笔者希望国际上关于这些问题的探讨能不断深入,也期待中国的智库和科学技术界能在这个方向上为全球的共同努力贡献力量。
(本文2019年4月10日首发于微信公众号“国关国政外交学人”,作者授权观察者网转载)
《人工智能技术在网络安全方向的应用》学习笔记
人工智能技术在网络安全方向的应用摘要:网络安全态势感知模型由态势要素提取、态势理解和态势预测组成,安全态势预测是整个安全态势感知模型中最高层次的技术,对网络安全的防御有着重要的作用。该技术与实现人工智能的基础条件相吻合,通过不同种类的安全设备、网络设备以及他们的运行日志,积累了大量的数据可供机器深度学习,对构建好的安全模型进行模拟训练,依靠分布式计算的强大数据处理能力,及时判别当前安全态势,提供在线处置方案并予以实施。同样,人工智能技术也是网络安全态势感知与在线处置的最佳选择,没有人工智能技术的支持,网络安全态势感知很难得到飞跃性质的发展,在线处置的效果也会因处置不及时而大打折扣。
关键词:人工智能网络安全网络安全态势一,引言——当前网络安全时代背景:由于移动设备和物联网设备的几何式增长,伴随着互联网的普及和网络应用的不断深入,网络的范围从广度和深度上都有了极大的扩充,涵盖了国家、社会和个人的方方面面,网络边界也由过去的清晰发展到现在的模糊,甚至到无边界。而互联网本身的开放性、国际性和自由性在增加其使用的便捷性,导致社会和经济活动越来越多地依托在网络之上,目前人们已经习惯使用网络提供的各种服务,参与各种网络活动,如电子政务、电子商务等。但安全却成为影响网络效能的重要问题,网络的普及、应用的暴增和不同网络的交织及应用人员安全意识的薄弱,因此不法人员越来越容易利用在网络上无意识泄露的个人隐私,造成网络安全威胁形势越来越严峻。
二,网络安全的内涵和主要问题网络面临的威胁大体可分为对网络中数据信息的危害和对网络设备的危害,在这里对前者进行分析。(一)广义上网络存在的威胁网络存在的威胁主要表现在以下几个方面:(1)利用网络传播病毒:通过网络传播计算机病毒,由于其强力的传播性使其破坏性大大高于单机系统,而且用户很难防范。计算机病毒具有较强的隐蔽性,在互联网不断发展的今天,各种新型病毒层出不穷,传播速度快,破坏力强,危害大。如前几年发生的WannaCry蠕虫勒索病毒事件,严重影响社会运行的正常秩序,致使英国一些医院不一些医院不能给病人做手术,而俄罗斯一些ATM取款机也受到了该病毒的感染无法取款,造成严重的危机管理问题。(2)非授权访问:没有预先经过同意,就使用网络或计算机资源被看作非授权访问,如有意避开系统访问控制机制,对网络设备及资源进行非正常使用,或擅自扩大权限,越权访问信息。它主要有以下几种形式:假冒、身份攻击、非法用户进入网络系统进行违法操作、合法用户以未授权方式进行操作等。(3)冒充合法用户造成的信息泄漏或丢失:指核心数据在有意或无意中被泄漏,例如信息在传输中丢失或泄漏(不法分子们利用搭线窃听等方式可截获机密信息,或通过对信息流向、流量、通信频度和长度等参数的分析,推出账号密码等重要信息。)。(4)破坏数据完整性:以非法手段窃得对数据的使用权,删除、修改、插入或重发某些重要信息,以取得有益于攻击者的响应;恶意添加,修改数据,以干扰用户的正常使用。(5)拒绝服务攻击,干扰系统正常运行:它不断对网络服务系统进行干扰,改变其正常的作业流程,执行无关程序使系统响应减慢。除此之外,Internet非法内容也形成了对网络的另一大威胁。有关部门统计显示,有30%-40%的Internet访问是与工作无关的,甚至有的是去访问色情、暴力、反动等站点。在这样的情况下,Internet资源被严重浪费。对互联网来说,面对形形色色、良莠不分的网络信息,如不具备识别和过滤作用,不但会造成大量非法内容出入,占用大量信道资源,造成传输堵塞等问题,而且某些含有暴力、色情、反动消息等内容的不良网站,将极大地危害青少年的身心健康,甚至危害社会和谐稳定。(二)近年来的网络安全威胁变化近年来随着互联网技术的快速发展,网络安全威胁也发生了三大重要变化:(1)攻击动机发生改变。早期的网络攻击多出于个人的好奇心,近乎一种无目的性的行为,而近年来的网络攻击或为由资金充足、训练有素的军队发起、以支持网络战,或是由复杂的犯罪组织发动,动机极具目的性与恶意性。(2)攻击的范围扩大、速度提高。史上第一起网络攻击利用了手动发现的软件漏洞,感染了单个计算机。而如今的网络攻击则利用自动识别的漏洞,可由黑客新手打包好之后在互联网上自动传播,可影响全球的计算机、平板电脑、智能手机和其他设备,其攻击范围之大不言而喻。(3)入侵的潜在影响急剧扩大。全球设备和人员联网意味着网络攻击不仅会影响数字世界,还会通过物联网和无处不在的社交媒体平台影响到现实世界,瘫痪网络会影响正常用户的使用,使合法用户被排斥而不能进入计算机网络系统或不能得到相应的服务。因此,互联网飞速发展的新时代对安全提出了更高的要求。但要实现网络安全,需借助于特征库的及时更新,然而特征值的获取必然落后于安全事件的发生,若无法第一时间给以在线处置方案则无任何作用,而且会使特征库越来越庞大,进而导致防护检测效率越来越低下,最终基于特征库的安全事件漏报、误报越来越严重严重,形成恶性循环。所以,找到帮助网络安全突破这一瓶颈的新技术就显得越发亟待。为了解决这些问题,基于人工智能的网络安全态势感知与在线处置新技术应运而生。
三、基于人工智能的信息网络安全态势感知技术介绍(一)预测态势算法预测态势主要是指利用感知系统对当前信息的收集调查,对于所预测内容的主要有关因素进行分析,并结合一定的历史资料、预测经验模型以及科学的理论方法对未来一段时期内可能出现的安全态势变化进行预测。目前,人工智能展开的安全态势预测方法主要分为以下两种:第一是专家系统预测方法,是指一种利用人工智能模仿特定领域内的人类专家的思维来对安全态势进行预测,此种预测方法需要一个具备丰富专业知识与人类预测经验的智能专家系统,能够求解较为复杂的问题,此预测方法具有易于理解、避免过于繁复的计算、逐渐丰富自身预测经验使预测精准度不断提升等优势;第二是人工神经网络的预测方法,目前所应用的人工神经网络模型包括BP网络、RBF网络、Hopfield网络等,人工神经网络虽然在近年来与小波分析、粗糙/模糊集、灰色理论以及遗传、进化、免疫等算法工具相结合取得了比较好的应用效果,但是仍旧存在局部最优解的问题,即在面对优化问题时,由于问题过于复杂,所需考虑因素较多,难以在短时间内完成全局最优解,导致优化结果倾向于局部最优解的现象。(二)表征态势指标体系在对信息网络安全态势进行预测时,需要制定出一鯇整的指标体系,以此指标体系为基础为人工智能进行态势预判时提供参考标准,并得出合理预测结果,所以此指标体系其实是人工智能工作的依托。目前所应用的指标体系中主要包括以下三类指标:第一是基础运行指标,是表征当前网络性能、传输设备负载、物流环境的一系列指标,代表着当前企业所具备的基础设施的基本情况。第二是网络威胁指标,该指标能够直接反映出网络中所潜在或已经出现的威胁,如病毒、垃圾邮件、钓鱼网站等,同时还能反映出网络被恶意攻击的程度和次数,如攻击强度、挂马密度等指数,人工智能可依据此指标。第三是网络脆弱性指标,表征的是网络整体上漏洞和脆弱性的情况,通过检测DNS服务器、核心路由器等关键设备的健康指数为安全态势预测提供基础数据。人工智能系统可依据此三项指标的检测结果为安全态势感知提供大量数据参考,既能够使系统识别危险难度减小,又能够使企业的信息网络问题反映更加直接,提醒技术人员及时对企业信息网络短板进行完善,使问题处理更加高效,令人工智能在安全态势感知方面的作用更加突出。(三)人工智能在该技术中的实现由于此感知技术基于人工智能所发展,所以能够运用大数据对所采集信息进行预处理,降低数据的后续处理难度。此技术主要运用了大数据技术中的Stream框架,此框架具备数据处理速度较快、扩展性与并发处理能力较强的优势。在具体的预处理活动中,将涉及以下几点内容:第一是数据归一,在Stream流中,系统将所收集的包括日志信息、数据流量等内容在内的数据进行统一处理,通过将其进行转化的方式使其适应系统应用方式,并作为系统进行后续分析的数据元。第二是情报知识库的关联,通过将情报库与知识库相关联的方式使企业获取到自身进行安全态势分析所需的支持信息,目的同样是为系统后续分析提供数据基础;第三是数据归并,系统通过计算分析引擎按照预置的事件流程框架将数据进行归并,在此活动中将所有事件处理完成后归纳进引擎入口并结合历史数据中的内容分析出此数据流中是否存在异常,从而触发警报。网络安全态势感知抛弃传统的特征库比对的预测方式,采用对行为特征的研判,利用获取的大量网络安全数据,采用大数据分析的方法,对网络安全给以分析、理解,建立网络安全算法模型,使用人工智能的深度学习技术,训练网络安全人工智能模型,主动发现安全威胁。对于网络安全态势感知检测到的威胁行为,在线处置系统与路由器、交换机、防火墙等网络设备和安全设备联动,限制网络连接,阻断攻击行为,隔离攻击源和攻击目的设备。对被攻击的设备进行安全态势评估,针对存在的安全隐患,采取防病毒处理、补丁安装、杩清扫、恶意软件清理等措施,待符合网络安全要求之后,恢复网络连接,开展相应服务,仍不能满足网络安全要求的设备,通知管理员进一步处理。对被动攻击源设备(被其他设备远程控制的被动充当攻击源的设备)采取与被攻击设备相同的策略进行安全加固,对主动攻击源设备(主动发起攻击的设备)除采取与被攻击设备相同的策略进行安全加固之外,检查使用人员的信息,分析是否为有意识的攻击行为,通知安全管理员进行相应处理,对于有意识的攻击行为者实行全网重点监视排查。对于各类攻击行为,在分析研判的基础上改进策略,采用人工智能深度学习技术,在实际运行处理安全故障过程中,自动修正网络安全态势感知和在线处置系统模型,提升在线处置能力,真正实现智慧安全地提升,降低人为的干预。值得注意的是,网络安全态势感知与在线处置收集的数据必须是无污染的有效数据,因为人工智能是依赖于数据的,大量的数据错误,训练出的模型必然是不正确的,故此数据的安全有效在机器学习领域至关重要。
四、人工智能在网络安全方面的技术优势人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何应用计算机模拟人类智能行为的基本理论、方法和技术。人工智能以庞大的有效数据为学习基础,培养、优化计算模型,在强大运算能力的加持下,模拟人类的智能行为。在语言处理、智能搜索、机器学习、知识获取、感知问题、神经网络等领域取得了较好的发展。人工智能在网络安全防范中可以实现以下功能:自动检测:人工智能(机器学习)可以帮助公司快速识别威胁并找到潜在风险之间的联系,从而消除流程中的人为错误。人工智能(机器学习)可以适应和学习经验和模式,而不是因果关系。今天,机器学习使机器自学成为可能。这意味着他们可以创建用于模式识别的模型,而不必等待人类开发它们。在开始采取适当的补救措施之前,训练过的AI可以利用推理来确定各种风险,例如可疑地址,奇怪文件等。异常检测:人工智能大大提高了识别网站可疑问题所需的时间。开发人员也在利用人工智能来识别那些在网站上有不良意图的人。这一过程被称为异常检测,有多种用途,其中网络安全位居榜首。根据人工智能技术,程序可以在短短几秒钟内分析大量访客,并根据他们的威胁级别和行为对其进行分类。更好的监视,搜索和分析:人工智能使公司和组织在其安全环境中拥有更大的可见性,并使它们能够提前应对威胁。由AI驱动的狩猎技术可以确定组织是否受到攻击,以便组织可以做好准备。安全认证:如果你的网站需要访客登录,需要输入表单,或者需要在网站后端提供另一层安全保障,人工智能可以更好地以很大的安全性进行认证。确保安全身份验证的一种方法是通过物理身份验证,其中人工智能使用不同的特征来识别一个人。例如,智能手机可以使用指纹扫描仪和面部识别来让你登录。这背后的过程需要程序分析关于你的脸和手指的主要数据点,以辨别登录是否真实。除此之外,人工智能还可以研究其他因素,以确定某个特定用户是否被授权登录某个技术设备。这项技术会检查你输入按键的方式、打字速度和拼写时的错误率。更快的响应时间:人工智能可以处理大量非结构化信息,从而以更高的效率提供见解。更重要的是,机器学习、人工智能可以更快地学习模式,从而加快响应时间,使其更快、更容易地在威胁造成问题之前阻止它们。一些领先的公司(例如IBM)正在网络安全中使用认知技术和AI,以使它们能够快速识别威胁并做出相应的响应。无差错的网络安全:与人类不同,人工智能在执行重复的任务时不会感到疲倦或无聊。因此,人为错误的风险大大降低。但是,人类需要与人工智能合作才能获得更好的结果。毫无疑问,人类提供了机器缺乏的常识和理性。但是,在非标准情况下,由AI设计的应用程序是更好的决策者。
五、人工智能在网络安全方面的发展前景及问题(一)积极利用人工智能赋能网络安全近年来,Agent系统、神经网络、顾问系统、机器学习等人工智能技术在网络安全防御中涌现出很多研究成果。总体而言,目前人工智能重点应用在网络安全入侵检测、恶意软件检测、态势分析等领域。
1.入侵检测技术入侵检测技术是利用各种手段方式,对异常网络流量等数据进行收集、筛选、处理,自动生成安全报告提供给用户,如DDoS检测、僵尸网络检测。目前神经网络、分布式Agent系统、顾问系统等都是重要的人工智能入侵检测技术。这也是当前网络安全领域使用最普遍的人工智能技术。传统的入侵检测技术在检测速度、检测范围和体系结构等方面均存在短板。为了弥补这些短板,智能入侵检测系统借助人工智能中的模糊信息识别、规则产生式专家系统、数据挖掘和人工神经网络等技术,提升入侵检测效率,并且可以最大程度地抵御来自于各方病毒入侵所带来的潜在威胁。
2.垃圾邮件阻止系统现如今计算机网络快速发展,电子邮件被广泛应用,为人们的工作以及商务活动的开展提供便利。对于一些不法分子,利用这一特点在其注入病毒,当邮件传递时,病毒就会导入网络中,打开邮件或链接时,病毒就会注入到计算机中,影响计算机的运行,导致信息的丢失或损坏。针对这一情况,人工智能应用在反垃圾邮件系统中,除了可以保护用户数据的安全外,最主要的是可以检测扫描用户邮件并进行智能识别,及时发现其中的敏感信息,同时采取有效防范措施阻止恶意邮件,使用户免受垃圾邮件骚扰之忧。
3.智能防火墙系统防火墙作为网络安全设备已被普遍应用。防火墙圈定一个保护的范围,并假定防火墙是唯一的出口,然后防火墙来决定是放行还是封锁进出的包。传统的防火墙有一个重大的理论假设―如果防火墙拒绝某些数据包的通过,则一定是安全的,因为这些包已经被丢弃。但实际上防火墙并不保证准许通过的数据包是安全的,防火墙无法判断一个正常的数据包和一个恶意的数据包有什么不同,而是要求管理员来保证该包是安全的。而智能防火墙引用的识别技术,可以很好地自行分析和处理相应的数据,同时又能巧妙地融合代理技术和过滤技术,不但可以降低计算机对数据的运算量,还能拓宽监控范围,有效地拦截对网络有害的数据流,从而更好地保障网络环境的安全。
4.恶意软件防御预测性恶意软件防御技术通过使用机器学习和统计模型,寻找恶意软件家族特征,预测进化方向,提前进行防御。当前,在病毒恶意软件持续增加和勒索软件突发涌现的情况下,企业对于恶意软件的防护需求非常迫切,市场上涌现一批应用人工智能技术的相关产品系统。2016年9月,安全公司SparkCognition打造人工智能AI驱动的“认知”防病毒系统DeepArmor,可准确发现和删除恶意文件,保护网络免受未知网络安全威胁。(二)人工智能网络安全风险引发现实危害2019年,在被普遍视为解决安全问题的灵丹妙药的同时,人工智能带来的网络安全危害亦持续引发全球广泛关注。一方面,人工智能自身带来的网络安全风险不断。2019年3月,网络安全业内发现全球应用最为广泛的开源机器学习框架谷歌Tensorflow存在多处漏洞,有被安插后门等风险;同期,IBM被曝未经用户许可擅自使用图片分享网站Flickr上的100万张照片进行人脸识别算法训练,人工智能训练数据的获取方法和途径侵犯用户隐私问题再次被推上舆论风口浪尖;另一方面,人工智能的恶意利用导致网络攻防全面升级。随着人工智能技术依托的算法、大数据等以很低的成本进行复制和扩散,人工智能在有效赋能网络安全防御的同时,也为黑客实施网络攻击创造了有利条件。2019年,人工智能驱动的物联网网络攻击、语音模拟钓鱼欺诈、深度伪造(Deepfake)虚假视频等已在全球造成现实危害,基于人工智能的网络攻防正发展成为一场对抗节奏呈指数级递增的猫鼠游戏。六、总结大数据和5G时代下面临的安全威胁日益加剧。人工智能技术的飞速发展,给网络安全态势预测提供了强有力的技术支持。将机器学习、深度学习等人工智能算法应用于网络安全态势预测中,通过分析历史态势信息,得到准确的预测结果,具有广阔的研究与应用前景。但当前基于人工智能的网络安全态势预测仍存在着亟待解决的问题:在提高预测准确率的同时也需要提高数据的有效性,构建多样的预测模型,以及模型稳定性不强、训练时间过长、预测周期短等问题,未来的研究除了要继续提高模型的态势预测能力外,如何让人工智能技术更好的为对应问题提供解决方案,也是研究方向的重中之重,只有及时预测与及时处置高度结合,才能真正地让人工智能技术为网络空间安全保驾护航。然而在被普遍视为解决安全问题的灵丹妙药的同时,人工智能带来的网络安全危害持续引发全球广泛关注。随着人工智能自身带来的网络安全风险不断,如何确保人工智能在网络安全领域健康发展这一议题,引起了越来越多人的重点关注。