博舍

苹果不炒作人工智能他们只是没做大模型 人工智能是福音还是噩梦

苹果不炒作人工智能他们只是没做大模型

作者/王昊达

在刚刚结束的WWDC 2023大会上,苹果又一次选择了“谨慎对待”当前大火的人工智能,相比较“ArtificialIntelligence”(人工智能),苹果似乎更倾向于使用“Machinelearning”(机器学习),去还原技术的本质……

苹果第一次提“Machinelearning”这个词,是在2017年6月5日的WWDC2017主题演讲中。彼时,苹果的高级副总裁CraigFederighi宣布了CoreML和CreateML两个机器学习框架,让开发者可以更容易地在苹果设备上集成机器学习模型。也是在这次WWDC之后,苹果就一直在不断地推进机器学习技术的发展和应用。

对于大多数的消费者来说,谈到苹果的人工智能,人们印象最深的应用莫过于“漏洞百出”的Siri了。从2011年iPhone4S登场,成为人人“调戏”的对象,到时至今日,Siri的交流能力依旧算不上市场前沿,成为鲜有人问津的鸡肋功能。面对井喷式增长的人工智能行业,在人工智能领域迟迟缺乏新动作的苹果公司,让行业普遍认为已经开始进入“掉队”的行列之中。

牢据市场一隅,苹果更喜欢“精确”

面对各种质疑的声音,苹果CEO库克表示,苹果本质上还是硬件厂商,公司并没有谷歌或微软那样的通过升级软件提高生产力的压力。

在WWDC2023中,苹果还推出了iOS17系统,为用户提供了一系列的新功能和改进,包括电话和FaceTime的个性化和互动功能、全新的日记应用、新的待机模式、新的动态小工具、CarKey数字汽车钥匙功能的增强,以及ARKitAPI框架的改进等。

依靠简单、优质、个性化的产品和服务,苹果赢得了大批的赞誉和忠诚度。在移动市场中,凭借其占有率和封闭且高效的iOS生态系统的优势吸引了更多的用户。同时,苹果不断创新和拓展产品线,打造了Mac、iPad、AppleWatch、AirPods、AppleTV等一列自生态产品。

简言之,苹果强大的品牌号召力与生态影响力,使其消费电子类产品(除开奢侈品品牌)在定价方面堪称同类“天花板”,却仍然在销量上牢牢占据市场一隅。强大的产品优势是苹果的独具一格底气,但强大的开发者号召力也是其AppStore经久不衰为苹果源源不断贡献收入的因素之一,这意味着,在开发者对于人工智能需求不断增长的今天,苹果所持有谨慎的态度,并不代表其不正视这项技术的未来发展与前景。

“曲线救国”服务硬件,苹果只是没做大模型

作为硬件厂商,苹果拥有自己的芯片、服务、系统等产品,这些产品所构成的完整生态也为苹果在人工智能领域提供了强大的基础设施和平台,可以在硬件和软件之间实现高效的协同和优化,提升用户体验和性能,也可以更好地保护用户隐私。

即将更新的iOS17也使用了Transformer语言模型,能够根据用户语义与语言习惯进行输入单词的预测,并使得自动纠错更加准确;在语音识别方面,iOS17利用神经引擎使语音识别更加准确。

值得注意的是,目前人工智能领域的数据与隐私泄露风险以及人工智能监管问题已经成为全世界要共同面对的问题。国内外都出台了一系列的政策法规来维护人工智能发展,甚至ChatGPT之父山姆·奥特曼也在听证会上向政府申请对OpenAI实施监管。

Unity中国AI技术负责人暴林超先生对大模型之家表示:人工智能对于数据是饥渴的,目前数据和隐私安全等问题已经在一定程度延缓了人工智能的发展,这就需要企业密切关注数据调用问题,在确保不侵犯用户隐私的基础上寻求途径推动人工智能的进步。

而苹果对用户隐私和数据安全的重视在行业里也是家喻户晓,甚至将其隐私保护功能作为产品的重要卖点。苹果采用了多种技术手段,如加密、生物识别、差分隐私等,来保护用户数据不被泄露或滥用。同时,这将使苹果的人工智能业务能够更加合规地接触并使用用户数据,进行更有精确的服务用户,并且大幅度提升人工智能的响应速度和可靠性。

VisionPro上演堆料艺术

在即将面世的VisionPro产品展示中不难发现,虽然苹果对“人工智能”只字未提,但似乎所有的新动作都围绕着“人工智能”展开。

VisionPro也使用了基于Transformer的语音识别模型让语音识别更加准确。并且可以有效地处理自然语言的序列数据。作为基于自注意力机制的深度学习模型,它还可以进行自动纠错和词预测,提高了语音识别的准确性。

同时,VisionPro还依靠视觉生成建模,通过前置摄像头扫描人的面部信息,再基于机器学习技术,系统会使用先进的编码神经网络,为用户生成一个“数字分身”。利用先进的机器学习模型,根据对用户的眼球追踪和瞳孔状态,来预测用户的身体和大脑状态,比如是否对当前事物好奇,是否走神,注意力是否被分散等等。

这些数据可以帮助VisionPro提供更个性化和智能的体验,比如根据用户的注意力、放松程度或学习情况来更新虚拟环境,或者根据用户的眼睛注视方向来创建生物反馈。

还有VisionPro配备的卷积神经网络,通过卷积层、激活层、池化层和全连接层来实现高效和准确的图像识别和对象检测功能,为用户提供了丰富和逼真的混合现实体,在自动驾驶、安防监控、医学图像分析等领域都发挥着重要作用。

值得一提的是,Visionpro也是市面上唯一一款完全不需要装配手柄就能实现控制的MR头显。因此,想通过动态捕捉、动态分析、眼部追踪等技术实现人机交互便对VisionPro的运算处理能力提出了极高的要求。

VisionPro内置M2和R1两款芯片,M2芯片负责运行操作系统和应用程序,而R1芯片负责定位、协同、视觉图像处理或传输等功能。

R1芯片是苹果专门为VisionPro设计的新芯片,专门用于处理传感器数据和空间计算,能够在12毫秒内将新图像流式传输到显示器,比眨眼快8倍,这对于提供与现实同步的沉浸式混合现实体验至关重要。可以说,为实现机器学习满足用户的需求,R1芯片就是人工智能时代苹果向世界交出的“答卷”。

对于苹果来说,或许“Machinelearning”这个词更精确的描述苹果的技术特点。但通过VisionPro、iOS17以及纵观整个苹果生态不难看出,苹果并不希望模糊地定义人工智能,他们热衷于用技术改造或扩展自己的产品品类,打造自己的品牌,而不是使用行业通用的词汇。

诚然,相比ChatGPT这样的人工智能大模型而言,苹果在人工智能领域的积累,并不能让其拥有如同iPhone那样“改变世界”的能力,但是苹果用VisionPro这款产品,试图去教育世界,AI如何与空间计算的场景结合,发挥出“1+1>2”的效果。更用另一种XR的实现形式(此前一种为微软的HoloLens),打开了行业迈向“空间计算时代”的大门。

与微软和谷歌等公司相比,苹果对人工智能技术的开放性较低,但依靠庞大市场需求支持,苹果更希望维护好产品带给用户的优质体验,无论是“机器学习”还是“人工智能”其核心要义还是能为用户带来什么。大模型之家认为,无论是硬件软件用户在使用的时候只在意产品能否更完美的匹配自己的需求,多高的算力和多大的数据参数最终为产品打分的只能是消费者的满意程度,相信人工智能发展的最终形态会向着平民化、日常化的方向前进。

生成式人工智能:网络安全的福还是祸

上个月,ElonMusk写了一封公开信,要求将人工智能系统的开发暂停6个月,并警告称“与人类竞争的智能可能对社会和人类构成深远的风险”。虽然这听起来有些危言耸听,但生成式人工智能带来的威胁是真实存在的,并且随着人工智能生成的网络钓鱼电子邮件、恶意软件和深度造假活动的兴起,这种威胁在网络安全领域已经非常明显。随着这项技术变得更加先进,生成式人工智能将不可避免地继续促进网络犯罪活动,并赋予“想成为”网络犯罪分子以越来越复杂的方式攻击组织的能力,通常无需编写一行代码。

毫无疑问,组织应该关注这个新的生成式人工智能时代带来的风险。然而,这项技术也可用于防止恶意行为者,支持防病毒软件、欺诈检测以及身份和访问管理。

生成式人工智能将继续存在,尤其是首席信息安全官(CISO),不能对这项新技术带来的风险视而不见。那么,风险是什么?组织如何在新的生成式人工智能驱动的威胁环境中保护自己?

网络犯罪分子利用生成式人工智能

ChatGPT和类似的生成式人工智能模型的出现创造了一个新的威胁格局,几乎任何人都可以对组织进行恶意网络活动。网络犯罪分子不再需要具备高级编码知识或技能。其所需要的只是恶意,以及对ChatGPT的访问权限。

影响欺诈应该是未来组织特别关注的领域。绝不是一个新的或新颖的概念。多年来,机器人一直被用来在社交媒体平台和主流媒体评论区生成评论,以塑造政治话语。例如,在2016年总统大选前几周,人们发现机器人转发唐纳德·特朗普的推文是希拉里·克林顿的十倍。但现在在生成式人工智能的时代,这种类型的欺骗——在历史上是为高层政治欺诈而保留的——可能会渗透到组织层面。理论上,恶意行为者可以在几秒钟内使用ChatGPT或GoogleBard在社交媒体、主流新闻媒体或客户服务页面上生成数百万条有害信息。针对企业(包括其客户和员工)的精心设计的攻击可以以前所未有的规模和速度执行。

组织的另一个主要担忧是恶意机器人的激增。2021年,全球27.7%的互联网流量由恶意机器人构成,而在过去几年中,这一数字只增不减。凭借其先进的自然语言处理能力,ChatGPT可以生成真实的用户代理字符串、浏览器指纹和其他属性,使抓取机器人看起来更像合法用户。事实上,根据最近的一份报告,GPT-4非常擅长生成语言,其能让一个人相信其是盲人,以便让那个人为聊天机器人解决验证码问题。这对企业构成了巨大的安全威胁,并且随着生成式人工智能的发展,这将成为一个日益严重的问题。

生成式人工智能可以成为首席信息安全官的福音

生成式人工智能带来的风险无疑是令人担忧的,但这项技术将继续存在,并迅速发展。因此,首席信息安全官(CISO)必须利用生成式人工智能来加强其网络安全策略,并开发更强大的防御措施,以抵御新出现的复杂恶意攻击。

CISO目前面临的最大挑战之一是网络安全技能差距。到目前为止,全球大约有350万个网络职位空缺。最终,如果没有熟练的员工,组织根本无法保护自己免受威胁。然而,生成式人工智能为这一行业挑战提供了解决方案,ChatGPT和GoogleBard等工具可用于加快手工工作,减少网络安全人员的工作流程。特别是,特别是ChatGPT可以帮助加速代码开发和检测漏洞代码,提高代码的安全性。GPT-4代码解释器的引入改变了人员短缺的组织的游戏规则,因为繁琐操作的自动化可以腾出时间让安全专家专注于战略问题。通过引入由GPT-4驱动的MicrosoftSecurityCopilot,Microsoft已经在帮助网络安全人员简化这些操作。

此外,人工智能聊天机器人工具可以支持事件响应。例如,在发生机器人攻击时,ChatGPT和GoogleBard可以向安全团队提供实时信息并帮助协调响应活动。该技术还可以协助分析攻击数据,帮助安全团队识别攻击源,并采取适当措施来控制和减轻其影响。

组织还可以使用ChatGPT和其他生成式人工智能模型来分析大量数据,以识别可能表明犯罪机器人存在的模式和异常情况。通过分析聊天记录、社交媒体数据和其他信息来源,人工智能工具可以帮助检测,并提醒安全团队注意潜在的机器人攻击,以免造成重大损害。

新生成式人工智能时代的保护

我们现在已经进入了生成式人工智能时代,因此组织面临着更加频繁和复杂的网络攻击。CISO必须接受这一新现实,并利用人工智能的力量来对抗这些人工智能增强的网络攻击。未能实时使用机器学习的网络安全解决方案最终注定要落后。

例如,我们知道,由于生成式人工智能,组织将见证试图在其网站上进行欺诈的恶意机器人数量激增。在一个恶意行为者使用机器人即服务来制造复杂、隐蔽威胁的世界中,选择不利用机器学习来阻止这些威胁,就像在枪战中带刀一样。因此,现在比以往任何时候都更需要人工智能驱动的机器人检测和阻止工具来确保组织网络安全。

一个恰当的例子是:传统的验证码,长期以来被认为是一种值得信赖的网络安全工具,无法与当今的机器人相提并论。机器人现在使用人工智能来传递“老派”验证码,如交通信号灯图像,促使企业需要首先升级到挑战流量的解决方案,将验证码作为最后的手段,然后仅使用网络安全丰富的验证码。此外,组织可以通过实施多重身份验证和基于身份的访问控制来保护自己,这些访问控制通过用户的生物识别数据授予用户访问权限,这将有助于减少未经授权的访问和滥用。

生成式人工智能给组织带来了重大的安全风险,但如果使用得当,也可以帮助减轻其所造成的威胁。网络安全是一场猫捉老鼠的游戏,CISO需要领先一步,以保护其组织免受毁灭性的财务和声誉损害,这些损害可能成为这种新的人工智能驱动的威胁环境的一部分。通过了解威胁,并以有效的方式使用技术,CISO可以保护其组织免受生成式人工智能带来的新出现的攻击。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇