人工智能在网络安全中的 4 大优势和挑战
在本文中,我们将讨论网络安全中的机器学习和人工智能。我们将研究人工智能的好处和挑战、它们在网络安全中的作用以及犯罪分子如何滥用这项技术。
几年来,网络攻击的频率和规模一直在上升。自臭名昭著的大流行开始以来,我们看到了急剧的增长。随着数据安全比以往任何时候都更加危险,越来越多的公司转向人工智能,希望从黑客、网络钓鱼者和其他网络犯罪分子那里获得更强大的数字保护也就不足为奇了。
人工智能不仅仅是增强网络安全的能力,在此处需了解有关AI的一些有趣事实。但首先,人工智能的主要好处是什么?
一、人工智能的应用
顾名思义,人工智能是由机器而非生物展示的智能。
机器学习是人工智能的一个子类别,可识别模式并将其应用于解决问题。目前,AI和ML都在多个领域成功实施,包括:
银行和金融
卫生保健
房地产
零售和电子商务
物流运输
监视
制造业
娱乐和游戏
教育
数字营销
软件开发
最后,人工智能和机器学习在网络安全中不可或缺。
二、 人工智能在网络安全中的作用
人工智能可以更准确地预测和抵御网络攻击,因为它可以快速处理大量数据。
人工智能使现代企业能够用更有效的解决方案取代传统工具,从而提高生产力。因此,据报道人工智能在安全意识培训中非常有效。
考虑到特定网络安全需求而开发的AI解决方案可以部署更具创造性和节省时间的技术,从而加快入职、在职培训和指导过程。
AI驱动的导师可能会成功地扮演导师的角色,自动将一些任务分配给初级网络安全专家并密切关注他们的进展。
因此,人工智能解决方案将有经验的从业者从监督和指导职责中解放出来,并允许专注于其他更复杂或更重要的任务。
机器学习可以非常有效地对抗恶意软件。它可以扫描大量现有恶意软件的数据库,并在出现新的、修改过的版本时阻止攻击。
AI也擅长网络监控。机器学习可以决定用户行为,当发生意外情况时,将其标记为潜在威胁。
您可能知道,人工智能在打击网络恐怖主义方面也显示出很大的潜力。如今,政府、公司和大公司将希望寄托在人工智能上。
人工智能技术被认为有助于改善国土安全和各州保护公民隐私权的能力。更重要的是,人工智能使专门机构能够分析广泛人群的活动并更迅速地识别潜在危害。
人工智能和机器学习的最新发展扩大了进行网络监控的能力,而无需花费大量资源。AI技术现在被广泛用于通过IP网络进行在线监控、接收、传输和处理数据。
好消息是,人工智能可以在不侵犯隐私和数据保护人权的情况下进行监控。
AI允许加密视频数据并防止数据滥用。
人工智能在生物识别身份验证中也发挥着重要作用,这有助于消除对密码的需求。这可能是个好消息,因为惊人的80%的数据泄露与弱密码和不可靠密码有关。
最重要的是,人工智能驱动的解决方案可以在威胁出现时立即发现和解决它们。因此,人工智能使网络安全专家能够积极主动并采用可用的最佳方法来消除威胁。
此外,当需要更快地处理关键漏洞时,人工智能技术可以派上用场。在检测应用程序、数据库等中的弱点时,人工智能的效率提高了40%。
而且它们不仅仅是一些可能偶尔会破坏用户体验并妨碍安装新功能更新的普通错误。我们谈论的是黑客可能用来访问用户私人信息的可利用漏洞。
尽管如此,通过机器学习,教系统如何有效地发现危险、逐行筛选恶意代码并提出可以及时修补系统的可行解决方案变得更加容易。
三、人工智能的主要挑战
尽管AI为网络安全行业带来了所有无可争议的好处,但它绝不应被视为灵丹妙药。人工智能不一定是终结网络攻击的全能解决方案。事实上,它也带来了挑战。
首先,重要的是要记住人工智能技术并非无敌。如果黑客设法访问它们,则可以操纵Ai执行的某些任务。例如,一个支持AI的程序可能会被欺骗,将恶意软件或危险的用户行为标记为安全或正常,或者相反。
在用户中非常流行的生物特征认证也可能被证明是危险的。落入坏人之手的生物识别信息可用于监视或其他侵犯用户隐私的行为。
与密码不同的是,您无法对生物识别数据进行任何更改。这给用户带来了另一个问题。人工智能技术使我们能够收集和处理比以往更多的数据。因此,它可能会导致数字隐私和安全性进一步恶化。
AI带来的另一个挑战是它的实际实施成本。由于大量人工智能仍处于其发展的初级阶段并且处于试验阶段,因此与它相关的成本对于许多企业来说可能太高了。
如果犯罪分子利用人工智能解决方案的力量会怎样?这将使黑客能够非常快速地进行更大、更复杂的攻击。与网络监控和学习用户行为模式一样,犯罪分子也可以应用机器学习来确定某些网络攻击为何以失败告终,并设计出更强大、更有效的攻击模型。
AI还可用于创建类似于受信任软件的恶意软件。它可用于了解有关目标网络模式的更多信息,并在不被检测到的情况下执行危险攻击。
黑客还可以使用人工智能通过深度学习进行更强大的攻击。当研究人员向AI提供数百万泄露的密码并委托它生成新密码时,该程序的成功率达到了惊人的24%。
四、改进安全措施的方法
那些旨在增强其基于人工智能的网络安全系统的公司应该投入足够的时间和精力来配置强大的网络安全政策。建立高效的网络拓扑以更有效地管理所有用户的网络也很重要。
这也将帮助网络安全专家更快地定位和解决问题。人工智能本身可用于设计有效的网络安全策略、政策和记录网络流量模式。
最后,为了充分利用AI驱动的系统和解决方案,公司应特别注意只雇用信誉良好且经验丰富的软件开发人员。有大量公司和个人开发商声称在开发人工智能网络安全解决方案方面具有高素质和经验,这使得选择合适的服务变得更加困难。
除非您拥有一支成熟的专业团队,否则请务必仔细研究所有可用选项,切勿让您的网络安全程序开发靠运气。
最后但并非最不重要的是,那些使用人工智能和机器学习技术的公司和机构应该注意不断改进和更新他们现有的解决方案。
与任何技术一样,人工智能驱动的解决方案往往比您想象的更快过时。因此,及时了解网络安全领域发生的任何变化并及时实施修复和更新至关重要。
那么,人工智能会接管网络安全吗?未来几年,它肯定会在数字安全行业中发挥更突出的作用。到2026年,人工智能市场有望达到350亿美元以上。而且由于它既强大又充满希望,人工智能正在成为网络安全行业不可或缺的一部分。
人工智能为网络安全部门提供了在尽可能短的时间内自动检测威胁和数据泄露、预测和抵御恶意攻击所需的工具。人工智能和机器学习的发展也有助于为初学者网络安全专家提供及时和更有效的培训,并使资深从业者能够专注于更重要的任务。
虽然相对年轻,但人工智能在增强网络安全方面已经走了很长一段路。在这项有前途的技术最终能够充分发挥其潜力之前,还有更多的挑战需要克服并达到新的高度。
系列回顾
⊙秦安:阿富汗陷入内战危机,美国罪不可赦,需警惕其针对中国的网络战争
⊙牟林:中国如何突破西方媒体的封锁?三个路径和三个根本值得重视
⊙牟林:中国支持去殖民化,既要解气,更要有实效,共同迎来新世界
——END——
当人工智能有了情感,人类未来该如何自处
《情感经济:人工智能、颠覆性变革与人类未来》,[美]罗兰·T.拉斯特、黄明蕙著,彭相珍译,中译出版社2022年1月版。
文学作品和电影,往往将奇点视为威胁和恐怖事件。例如,在斯坦利·库布里克的电影《2001:太空漫游》中,计算机HAL(IBM公司缩略名称字母前移一位,即H-I、A-B、L-M),不仅具有机械智能和思维智能,它还具有足够的情感智能来愚弄和操纵宇航员(并杀死了大部分宇航员)。最终,HAL基于自己的利益,损害了它本应服务的人类的利益。
电影《2001:太空漫游》(1968)剧照。
但在斯蒂芬·斯皮尔伯格的优秀电影《人工智能》中,人工智能表现为更积极的形象,库布里克也是该片的主要合作者(直到他英年早逝)。在这部电影中,大部分主角都是拥有发达情感智能的机器人。在电影的最后,人工智能外星人已经占据了主导地位,但他们对老一代的机器人,表现出了相当程度的关心、关注和同情。电影《她》也从一种有利于人类的角度描绘了人工智能。人工智能“操作系统”(斯嘉丽·约翰逊配音),对她的人类主人表现出极大的同情心。经典科幻电影《银翼杀手》也从正面描写了人工智能机器人,并描绘了具备深刻情感智慧的最先进的机器人。
因此,我们也看到,人类对人工智能的情感能力的观感是矛盾的。在最坏的情况下,人工智能将利用其情感智能来操纵人类,以达到自己的目的。在最好的情况下,人工智能将利用其情感智能,与人类产生共鸣并帮助人类。我们将在下文中探讨这两种可能性。
电影《人工智能》(2001)剧照。
收入和财富不平等会进一步恶化吗?
一旦人工智能发展到了高度的情感智能,它将全方位压倒人类智能。这将自然而然地导致一个后果,即人类的劳动变得不够理想,因为人工智能几乎在所有方面都表现得比人类智能更好。这就意味着人类的劳动将丧失价值,且所有的工作将由人工智能接管。如果经济中的所有价值,几乎都来自人工智能,那么价值将几乎来自资本,而不是劳动。其结果是,经济将由相对少数的资本家掌控。这反过来又会进一步加剧收入和财富的严重不平等。在这种情况下,大多数人类将如何谋生,尚无答案。
人类真的能控制人工智能吗?
许多思想家声称人工智能永远也不能自主完成任务,因为它必须由人类编程。因此,人类将永远控制着人工智能。但事实真的如此吗?我们不妨简单地回想一下当前最常见的人工智能形式,即深度学习神经网络。这种人工智能已经被视为一个“黑盒子”,因为人类很难对其如何产出结果进行解释,即为什么它们能给出特定的解决方案。为此,计算机科学当前的一个重要研究领域就是,如何让深度学习对其客户(人类)而言,变得“可解释”。但一个显然的趋势是,随着人工智能变得越来越复杂,也越来越难被人类理解,导致人类感觉其逐渐失控。
最终,这个问题将变得越来越严重,而不是随着发展逐渐淡化。当人工智能变得足够聪明时,它就有可能做到自我编程。毕竟,计算机的自我编程作用已经存在,并将随着时间的推移而变得越来越普遍。换句话说,人类对人工智能的控制力正在迅速减弱,而随着控制力的丧失,人类如何确保人工智能继续按照既定的要求,致力于实现人类设定的目标,而非它自己的目标,也将成为一个问题。
牛津大学哲学家尼克·博斯特罗姆和麻省理工学院物理学家马克斯·泰格马克,都提醒人类应该注意这种人类失去对机器的控制的问题。他们都指出,人工智能可能会演变成一种智能或多种智能,无论哪种结果,都可能威胁到人类的控制力,甚至威胁到人类的生存能力。正如作家凯文·凯利(KevinKelly)所指出的那样,人工智能设备的联网可能造就异常强大的超级人工智能。
人类享受悠闲生活的设想
关于奇点,人们设想的最幸福场景是,人工智能负责完成社会的所有工作,而人类则可以自由地过着悠闲的生活,追求艺术、玩电子游戏、看3D电视,或沉浸在虚拟现实中。人类也会拥有几乎无限的社交时间(无论是面对面交流还是线上互动),或许未来全人类的生活都会变得类似现代的沙特阿拉伯王国公民的生活。在那里,几乎所有的工作,都由外国人完成,而沙特公民(至少是男性)则享有相当高程度的财富和自由。
电影《人工智能》(2001)剧照。
然而,如果我们从现实的角度来研究这种人类享受闲暇的情景,就会看出这种可能性将很难被实现。因为控制资本的相对少数人,将控制社会的大部分财富,而与对社会没有价值贡献的其他人分享财富,显然不符合前者自身的利益。或许会有少数杰出的人类技术专家能够赚取大量的金钱,但即使是这样的可能性也不太现实,因为人工智能将在三个智能层面碾压人类,并能够比最优秀的人类更好地完成各项工作。
有人可能会辩驳,最终剩下的少数占据主导地位的资本家,或许会是利他主义者,并愿意把自己的财富分配给其他没有赚钱能力的人类,但我们在现实世界中,并没有看到很多证明此类举动可能存在的证据。事实上,在收入最不平等的国家(如印度)中,出现此类善举的概率比世界上最平等的国家(如丹麦)要少得多。
人类的増强和改造
库兹维尔认为,既然相较于超级人工智能而言,人类在经济上不会有竞争力,那么唯一有吸引力的发展道路,就是人类利用人工智能来增强自己,甚至是彻底改变自己。人类利用人工智能实现增强自己,已经存在很长时间了。
首先,是身体的增强。例如,有人可能会使用一条人工腿,来替代被截肢的腿。听力不好的人可以戴助听器,视力不好的人可以戴眼镜。
接下来,是思维增强。人工智能可以通过很多方式来增强人类的思维智能。在很多方面,人工智能已经比人类更聪明了,这些能力可能会被用于人类能做的事情。例如,人类可能会给自己增加一个记忆芯片或计算模块,现在已经有各种各样的方法,能够连接人脑和计算机。最近,科学家已经成功地将人脑与互联网连接起来,可以让人类直接与一个巨大的信息网络连接。
最终,我们还将看到情感的增强。黄明蕙教授曾开玩笑说,她有时候希望拉斯特有一个“同理心芯片”,可以在和她交流的时候运用。而拉斯特则希望黄明蕙教授在开这个玩笑的时候,就能使用这个同理心芯片,然后她就会知道,这样的玩笑听起来不公平且伤人。我们离制作出这样的同理心芯片还相当遥远,但必定会越来越努力地利用人工智能,让人类变得更好。
电影《银翼杀手:2022黑暗浩劫》(2017)剧照。
另一种可能性是,人类有可能完全脱离身体的躯壳。如果整个人类的大脑,都能够被映射和理解(目前,我们只能在体型微小的动物身上运用这种技术),那么理论上一个人的所有知识和记忆,都可以被上传到电脑,甚至转移到机器人的躯体里。这样的技术,被称为“数字季生”气因此,仅在理论上而言,只要计算机能够运行,这样的人类就可以永生。
作为一种已经存在的技术,人类增强几乎必然会随着时间的推移,而变得更加广泛和复杂,从只能够增强机械智能,发展到思维智能和情感智能的增强。
但我们也有理由相信,人类的增强和改造将无法在奇点中存活,且我们的理由非常合乎逻辑。假设我们现在有一个增强型的人类,表现为人类智能+人工智能。毫无疑问,增强的人类将优于未增强的人类,因为其人工智能部分可增加价值。现在,我们再从人工智能的角度来看,人类智能+人工智能可能同样优于单纯的人工智能,只要人类智能部分能贡献一些人工智能不具备的东西。
但问题在于,在奇点概念中,人工智能将在各个方面优于人类智能,换句话说,人工智能可以利用人工智能,生产出一个“更好”的人工智能版本(我们将其称为HI)。那么,人工智能生产的人类智能+人工智能,将比人类增强版的人类智能+人工智能更好。也就是说,人工智能将失去与人类合作的动力。结论是,在人类可以控制人工智能的范围内,人类智能+人工智能(HI+AI)的版本是可行的,但基于优胜劣汰的自然进化理论,更有效的人工智能更有可能存活下来,最后将导致不与人类智能合作成为对人工智能最有效的策略。
末日场景
博斯特罗姆认为,如果出现了人工智能“超级智能”,末日情景是最有可能出现的结果。他指出,在超级智能的人工智能实体中,未必存在仁爱等人类品质。这表明人类作为物种的存在将有处于巨大危险。例如,假设人工智能与人类之间的智力差异,大致类似于人类与蚊子之间的智力差异。如果人类认为彻底消灭蚊子不是什么大事儿,那么人工智能在将人类视为蟆蚁,并彻底灭绝人类的时候,能不能做到三思而后行?
物种进化的下一阶段?
当然,我们也拥有一个合理地应对高级人工智能的出现的积极方式,就是将其视为人类进化的下一个阶段。就像人类从“低等的”、不那么聪明的猿类进化而来那样,一个高级的人工智能,将以人类为基础进化出来。前面讨论的电影《人工智能》就预示了这种可能性。在那部电影中,人类已经灭绝,地球完全由人工智能管理。我们能否接受这种情况可能取决于我们与人工智能的联系,以及我们是否认为新兴的超级人工智能比人类“更好”。但是,要人类接受这样的想法可能存在相当大的阻力,这也意味着,人类接受超级人工智能,可能会变得越来越困难。
电影《人工智能:灭绝危机》(2018)剧照。
当人工智能变得足够聪明的时候,它可以在机械、思维和情感这三个领域,都优于人类的智能。这就是广为人知的奇点场景。我们的观点是,这种情况的发生,可能还需要几十年的时间,但它最终将是不可避免的。市面上已经有不少流行的电影,让我们初步领略了奇点到来之后的可能场景。
和所有大规模的技术变革一样,奇点导致的后果存在无数的可能性,从乌托邦式的(人工智能负责工作,人类负责享受),到灾难性的(人工智能彻底淘汰人类)。但在这两个极端场景的中间,存在一个相辅相成的领域,即人类有可能利用人工智能来增强自己的能力,就像今天我们经常使用机械辅助工具那样。不幸的是,我们得出的结论是,帮助人类可能不符合人工智能自身的利益。相比之下,奇点将使目前的社会由思维经济向情感经济的过渡,变得平淡无奇、无足轻重。
本文选自《情感经济:人工智能、颠覆性变革与人类未来》,较原文有删节修改。已获得出版社授权刊发。
作者丨[美]罗兰·T.拉斯特、黄明蕙
摘编丨安也
编辑丨张进
导语校对丨赵琳