博舍

对抗性人工智能如何威胁您的机器学习模型 警惕人工智能的威胁

对抗性人工智能如何威胁您的机器学习模型

人工智能(AI)的出现给社会的几乎每个领域带来了革命性的变化。然而,人工智能的前景光明的能力也伴随着重大挑战,特别是在网络安全方面。

保护机器学习工作流程对于保护这些组织免受新兴威胁至关重要,而对抗性人工智能就是其中之一。

什么是对抗性人工智能?

简单来说,对抗性人工智能是指一组用于欺骗人工智能系统的技术。通过利用人工智能模型中的漏洞,对手可以欺骗这些系统做出有利于攻击者动机的错误决策。这些技术近年来变得异常流行。

微软进行的一项调查显示,仅2022年,所有人工智能网络安全事件就有30%使用了对抗技术。尽管存在危险,但不幸的是,大多数组织都没有做好充分准备,微软发现大约90%的公司缺乏应对对抗性AI攻击的任何策略。

考虑到每一次与人工智能相关的对抗性攻击都有可能被归类为组织网络安全的“严重”事件,从而对声誉和收入造成重大损害,这一点尤其令人担忧。

当前网络安全解决方案的差距

尽管网络安全解决方案取得了进步,但仍然存在巨大差距,导致组织容易受到对抗性人工智能的攻击。网络安全传统上专注于保护网络、设备和软件应用程序免受威胁。

然而,人工智能给网络安全带来了新的维度,需要新的防御方法。许多现有解决方案忽视了人工智能特定的考虑因素,包括身份验证、职责分离、输入验证和拒绝服务缓解。

如果不解决这些问题,人工智能/机器学习服务可能仍然容易受到不同技能水平的对手的攻击,从新手黑客到国家资助的参与者。

克服挑战:安全人工智能的关键要素

为了建立针对对抗性人工智能的强大防御措施,我们必须将安全性融入到人工智能系统的结构中。以下是需要考虑的四个关键要素:

偏差识别: 人工智能系统的设计应能够识别数据和模型中的偏差,而不会在决策过程中受到这些偏差的影响。要实现这一目标,需要不断学习和更新系统对偏见、刻板印象和文化结构的理解。通过识别和减轻偏见,我们可以保护人工智能系统免受利用这些偏见的社会工程攻击和数据集篡改。恶意输入识别: 一种常见的对抗性人工智能策略是引入恶意制作的输入,旨在引导人工智能系统误入歧途。因此,机器学习算法必须能够区分恶意输入和良性“黑天鹅”事件,拒绝对结果产生负面影响的训练数据。机器学习取证能力: 透明度和问责制是道德人工智能的基石。为此,人工智能系统应该具有内置的取证功能,为用户提供对人工智能决策过程的清晰洞察。这些功能充当“人工智能入侵检测”的一种形式,使我们能够追溯到分类器做出决定的确切时间点、哪些数据影响了它,以及它是否值得信赖。敏感数据保护: 人工智能系统通常需要访问大量数据,其中一些数据可能是敏感的。人工智能的设计应该能够识别和保护敏感信息,即使人类可能无法意识到其敏感性。

重要的是,保护机器学习模型免受对抗性人工智能的攻击并不是一项一次性任务,而是一个持续的过程,涵盖机器学习模型的整个生命周期,从开发到部署以及攻击期间。

了解人工智能和网络安全的细微差别。可以在这些领域为公司提供帮助,帮助增强抵御对抗性人工智能攻击的能力。

定制解决方案旨在满足特定需求,帮助增强抵御对抗性人工智能攻击的能力。构建不仅智能而且安全的人工智能系统。

确保机器学习工作流程免受对抗性人工智能的侵害不仅仅是必要的;这是保护企业和客户的义务。

通过将这些元素整合到AI系统中,可以为保护AI免受对抗性威胁奠定坚实的基础。

霍金、盖茨都在警惕人工智能 实则是在自欺欺人?

据国外媒体报道,斯蒂芬·霍金曾警告“人工智能完全体的发展可能意味着人类的终结”;伊隆·马斯克担心人工智能的发展可能是人类生存面临的最大威胁;比尔·盖茨则提醒人们要小心人工智能。

人类对未知事物产生恐惧并不是什么新鲜事。但是,著名的理论物理学家,以及硅谷企业家和微软创始人对人工智能的担心为这种恐惧增添了新的注解。但是像科幻电影一样,担心机器人会奋起革命似乎有点自欺欺人。重要的是如何合理的进行分析。

首先,我们要了解现在的电脑可以做什么,以及未来可能做到什么。由于不断增长的硬件计算能力和数字化热潮的席卷,人工智能正在享受发展的黄金时代。今天的“深度学习”系统,通过模仿人类大脑神经元可以处理大量的数据,学习执行一些任务,利用模式识别进行翻译,就像人类一样。于是,分析照片或者玩简单的电脑游戏,现在已经在计算机程序的能力范围之内。Facebook2014年推出的一种算法DeepFace识别人脸的准确率达到97%。

但是需要认识到,这种能力是十分具体的。今天的人工智能只是通过强大的数字运算力来模拟出智能,并没有与人类一样的自我思考能力、兴趣和欲望。计算机还没有人类所具有的任何推测、判断和决定的能力。

然而,人工智能目前已经足够强大到改变人类的生活方式。它可以通过作为人类智力的补充提高人的能力。比如说国际象棋,虽然计算机比任何人类都更加强大,但是世界上最好的棋手并不是机器。国际象棋特级大师卡斯帕罗夫表示人类和人工智能的混合体才是最强大的。这种人类与机器的混合体正成为各行各业的新发展趋势。通过人工智能的帮助,医生在医学图像上发现癌症的概率大大增加。智能手机上运行的语音识别算法将为发展中国家数百万文盲用户提供互联网服务。数字助理将有可能对学术研究产生帮助。图像分类算法将帮助穿戴式设备为人类提取现实世界的有用信息。

但即使在目前,不是所有的人工智能都带来的是积极的影响。比如,参与国家安全的人工智能有能力监控数十亿的电话通联,并挑选出任何想要需找的对象。虽然目前人工智能对社会利大于弊,但许多人仍会因为人工智能成为牺牲品。原来由人所做的工作比如说会计和营销等,可能会被晶体管取代他们的位置。人工智能可能注定要替代越来越多人的工作岗位。

不过对人类的监控和​​取代,并不是霍金、马斯克和盖茨所担心的未来。他们关注的是更遥远的未来拥有认知和学习能力的机器人与人类的利益产生冲突。

但这种人工智慧生物仍有很长的路要走,事实上它可能永远也不会出现。尽管大量心理学家、神经学家、社会学家和哲学家对大脑研究了一个世纪,仍然无法理解人类大脑的工作方式。有自我意识的人工智能目前还没又出现。

但是,即使霍金先生所描绘的人工智能完全体离我们尚远,但是审慎的规划如何应对仍然必要。其实这并不困难,因为人类一直都在规范那些具有致命伤害的东西,比如政府机构,比如军队。一旦这些自治实体不受特定的法律和规则限制就可以造成很大的伤害。

正如军队需要民间监督,政府必须透明负责任,人工智能系统也必须公开接受审查。由于系统设计人员无法预见所有的行为,所以人工智能必须有强制关机功能。这些规则可以保障人类不受伤害同时又不妨碍技术的发展。从核弹到交通规则,人类有能力用技术和法律来约束任何强大的创新。

一个有自主意识的非人类智能生物的确有其潜在危险性,但这不应该掩盖人工智能未来为人类所能带来的巨大利益。

译者:秉翰

百度新闻与网易科技合作稿件,转载请注明出处。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇