博舍

深入解析苹果的人工智能助理Siri系统 苹果人工智能siri怎么读出来的呢图片视频教程

深入解析苹果的人工智能助理Siri系统

当前位置:系统之家>系统教程深入解析苹果的人工智能助理Siri系统深入解析苹果的人工智能助理Siri系统

时间:2011-10-1110:00:23作者:不后悔来源:系统之家1.扫描二维码随时看资讯2.请使用手机浏览器访问:https://m.xitongzhijia.net/xtjc/20111011/1743.html手机查看评论 反馈

不久前,苹果公司宣布下一代iPhone将启用一项新的语音识别系统:Siri。CultofMac对Siri进行了一番深入的解析,看过此文或许能让你更有理由相信,人工智能已经走进我们的生活。

 

 

 

说道Siri,这是一道硬菜。可在Android上,这个功能一年前就有了,苹果不过是想在这方面“不输他人”,而且其功能也并非如此强大。对吧?

错。除了它确实是一道硬菜以外,其他的都错。

其实,Siri是十年内移动平台上最重要的事件之一。

对Siri持否定看法的人一般会分成两个阵营:一边会说它没什么了不起的;另一边会说Android上之前已经有了。这两方的说法都不正确。

Siri的意义相当重大

我们不妨先从Siri的血统说起。Siri直接发端于史上最大的人工智能项目:五角大楼的CALO项目。CALO是“CognitiveAssistantthatLearnsandOrganizes”的缩写(会学习和组织的认知助理),这个项目汇聚了全球人工智能方面的顶尖科研人员。

整个CALO计划的带头人名叫AdamCheyer,他现在也是苹果iPhone团队的工程总监。

在《麻省理工技术评论》的采访中,Cheyer说CALO早已开始探索如何把“对话、自然语言理解、视觉、演说、机器学习、制定计划、理性思考、服务代表全部融合到一个⋯⋯模仿人类的助理中,帮助人们完成不同的事情。”

他形容说Siri计划就是寻求在一件消费产品中做同样的事情。其实,在过去的四年里,Cheyer和他的团队一直在钻研如何优化CALO,使其能够在一台强大的移动电话中发挥效用,每天都能被成千上万的用户使用。在过去一年半中,他们把主要精力放在Siri技术和iOS及其应用程序的整合上。

它不是单纯的“声音识别”。它是人工智能。当人工智能进入了你的手机,难道意义还不够重大?

Siri和VoiceActions是两码事

Android系统的VoiceActions也是一项伟大的技术,并已经被许多Android用户所熟知和使用。但说真的,它和Siri不是同一个层面的产品。

VoiceActions提供了非常坚实可靠的声音识别引擎,它的高识别度把曾经一度流行的语音识别工具都比了下去。

不过,和过去的所有语音命令系统一样,它要求你说的话严格符合一系列特定的语法,否则它就无法理解。

Siri和以前公众使用过的所有产品都不相同。你说的话可以和你想表达的意思在字面上毫不相干,从严格的技术上看也似乎是文不对题,但Siri会根据上下文、人类历史以及能够理解一般人类语言的人工智能去分析,并在多数情况下领会你的意思。

打个比方,你想小睡一会,并准备上个闹钟,只需要说“20分钟后叫醒我”。如果你想查阅后面的日程安排,你可以说:“我今天接下来都有什么事?”

这些语句中既不包括会用到的应用程序名称,也不包括所需数据的名称。Siri仍然能够理解。

对人类而言,这些句子再平常不过了。但要让机器去理解这些变化多端的棘手词汇,就是人工智能的圣杯了。

而更加人性化的特点是,一旦你开始和Siri进入一段对话,它甚至能理解许多含义模糊或者引申的语义。比如,你可以问它:“步行范围内有没有什么顶尖的意大利餐馆?”如果Siri查询后回答“没有”的话,你可以说:“那墨西哥的呢?”Siri会将你的这个问题连同上文的“顶尖的餐馆”和“步行范围”一道进行理解。

Android的VoiceActions做不到这样的事情,因为它是一个声控命令软件,而并非人工智能。

Siri有时会为你显示网页搜索的结果,有时能替你执行一些操作,有时能够直接控制iPhone里的应用程序。

而且Siri同样能够回答问题,这要归功于它整合的Wolfram-Alpha。你可以随机提问:“30英里是多少公里?”,“巴黎现在几点?”,“钢琴上有多少个八度?”,或者“天空为何是蓝色的?”Siri能够直接回答这些问题。不是唰地显示一个网页。就是回答你的问题。

 

关于Siri,重中之重是什么?

从历史和文明的角度来看,关于Siri,最伟大的事情并非人工智能本身。而是苹果通过Siri把人工智能带进了现实生活中。

理由就是:苹果将Siri做成了iPhone的一个核心组成部分,并且让它作为手机使用的主流,让每个用户都觉得除了使用很方便之外,更想时时刻刻都尝试使用它。

提到“主流”,我指的是捡起那些被人类文明边缘化了的东西,并使其成为大量人群每日生活的一部分。现在,Google出品的VoiceActions不得不面临被边缘化的境地。一般人甚至都没听说过它。

Siri会成为主流的。人们会逐渐熟知它,甚至包括非iPhone用户。

爱迪生并不是发明灯泡的人。他是通过产品设计和市场营销,将灯泡变为主流的人。

福特并不是发明汽车的人。他是通过控制成本和市场营销,将汽车变为主流的人。

我们总是记住那些将事物变成主流的人,因为正是这些人和公司让科学技术真正融入每个人每天的生活。于是,说道灯泡,它就溯源于爱迪生;说道汽车,它就溯源于福特。

Google的VoiceActions并非人工智能,虽说它确实让用户省去了打字输入、触摸操作的工序,只需要使用声音去控制机器就可以完成一系列事情。但是,VoiceActions最终没有让声控成为主流。或许一些极客们会学着使用它吧。

然而,妈妈们会选择Siri。

AndOneMoreThing(还有一件事)

iPhone4S也许会成为第一款支持蓝牙4.0的手机,这项技术可以降低能耗,同时可以做到一件非常特别的事:唤醒设备。

如果把Siri和这项无线技术结合起来,其使用范围就更加广泛了。例如,可以想象你戴着一款“超长待机”手表,它会一直睡眠,你触摸它才会显示时间,或者在iPhone收到短信时,手表会被Siri唤醒。你如果要和Siri交谈,只需要对着手表说话就可以了,甚至连手机都不用掏出来。

同样,可以试想一下,有这么一款桌面麦克风,当你说话时会唤醒iPhone,就像《星际迷航》里那样不用按任何按钮直接说话,并从企业号,呃我是说iPhone的人工智能,得到回应。

那么让我们来总结一下Siri对于人类而言意味着什么。Siri是人机交互新纪元的黎明,是大众进入真正的人工智能时代的开端。

当然,目前它尚未达到完美,苹果目前将其定位在“beta”阶段。并且,它也还不是你在科幻电影里看到的那种无限高能的人工智能。

但它的步伐远未停止。iPhone4S里的Siri只是一个开端。相信以后会有更加复杂的版本出现。

Google、微软和其他公司也终会拿出自己的人工智能产品的(并且我预言就是按照这个排序)。

所以,一旦你最终和Siri搭上话了,请善待它。Siri具有非常非常重大的现实意义,和以往任何产品都不同。它能够代表计算机发展的一个新纪元。当然,它会让每个人都“说”起来的。

 

标签

苹果iOS5操作系统的十大新特性一览

下一篇>

xp系统下载官网教你实现系统的完美移植

相关教程MSDN原始版和纯净版哪个好?msdn原始版和纯净...WPS如何自动生成表格序号?WPS自动生成表格序...Wps如何制作流程图?Wps制作流程图的方法Word如何切换兼容模式?Word切换兼容模式的方...Wps的云文档在哪里?Wps开启云文档的方法PPT图片形状如何更改?PPT更改图片形状的方法Word怎么计算文件总页数?Word用域自动计算总...WPS文字怎么制作传真报头?WPS文字制作传真报...机械革命无界14Pro如何用U盘重装?U盘重装无...CPUZ怎么看CPU体质好坏?CPU-Z查看CPU体质的...

bilibili网页版入口_哔哩哔哩网页版入口地址分享

快手网页版入口_快手网页版入口地址分享

抖音网页版入口_抖音网页版入口地址分享

谷歌浏览器网页版入口_谷歌搜索引擎入口

发表评论

共0条

没有更多评论了

评论就这些咯,让大家也知道你的独特见解

立即评论

以上留言仅代表用户个人观点,不代表系统之家立场

苹果的人工智能应用,跟ChatGPT不太一样

苹果的XR混合现实设备,其中一个主要的功能便是围绕着健身Fitness+服务展开。

它会借助虚拟空间,让你在任何地点沉浸在「健身房」当中,当然,还少不了一个虚拟教练。

此前,我们只认为这位「虚拟教练」可能只提供标准的动作示范,但在苹果的计划里,「他」可能还会被赋予更多的「智慧」。

据悉,苹果为了扩展AppleWatch的健康宇宙,苹果拟将人工智能引入到健康功能当中。

推出一个AI健康教练,借助于AppleWatch所记录的数据,借助于算法,来制定用户的锻炼计划,改善饮食习惯和睡眠质量,以保持或者改善健康状态。

这应该是近期,AI与苹果走得最近的一则消息,但苹果的AI健康教练与当下热门的生成式AI,例如ChatGPT、bing、Bard却有着明显的不同。

「AI健康教练」更像是一个功能,而非是类似于ChatGPT这种引发全新赛道的趋势。

苹果一直没有切入到硅谷抢做生成式AI的热潮里,反而仿佛画地为牢,不参与竞争,显得颇有些不同。

Siri不是人工智能,苹果的人工智能藏在细枝末节

十二年前,苹果首次向公众展示了Siri,并随着iPhone4s一同推向市场。

后续,Siri被扩展到Mac、iPad、HomePod、AppleWatch甚至是AirPods等所有的苹果智能设备里。

Siri生来高光,被定义为「智能语音助手」,它可以通过语音识别和自然语言处理回答用户的问题,控制设备和执行任务。

也引领了智能手机标配语音助手的潮流,三星的Bixby、小米的小爱同学、OPPO的小欧等等。

同样,Siri也被大众所熟知,认为它就是人工智能的一个雏形。

只是,十二年的进化过程中,苹果很少对其进行深度升级,多是围绕着功能点补全。

如今,它依然保持着2011年的那般纯真,当遇到难题时,也同样会坦诚的回答道「我不是很清楚,这是我在互联网上找到的答案」。

在2023年生成式AI满天飞的今天,Siri的「纯真」与能说会道的ChatGPT形成了鲜明的对比。

仿佛,苹果并不想发展人工智能,只想卖手机和电脑,但事实真的如此?

其实Siri并不应该称之为人工智能,Siri只是个答案数据库类型的语音助手。

当用户唤起它,并发出一连串指令,它的数据模型会优先在本体处理,快速查看是否是一个简单的本地请求(像是调整音量、设定闹钟等),利用已知的信息迅速完成。

否则,再去云端查询更大的数据库,给你一个答案,或者没有查询到,就甩出一个网页搜索(大概率的情况)。

而ChatGPT并没有先本地再云端的流程,根据问题直接访问微软的Azure云计算中心,利用庞大的算力和相应模型进行推算,无论理解与否,都会「生成出」回答。

从这里来看,Siri和ChatGPT展示了两个倾向,苹果倾向于将技术部署在本地,优先调用本地算力解决。而ChatGPT则完全依靠于网络,以及数据中心的庞大算力。

苹果的AI也是如此,它藏在苹果产品许许多多的功能里,属于那种没人会留意,但却大幅改善了用户体验。

像是你按下快门,iPhone会一连拍下多张照片,再根据相应的模型算法,利用图像识别挑选一张效果最好的作为最终成像。

又或者,ApplePencil在iPad上书写时,能够媲美真实的纸笔体验。里面就用到了笔触追踪与手掌识别,在保证笔触实时响应的同时,也不会因为手掌接触屏幕而误触。

以及,FaceID安全性与效率的兼顾,它能够适应用户面容的变化,不会因为眼镜、胡须遮挡而影响识别效率。

甚至在当下的iOS当中,也支持口罩解锁,仅用半张脸就完成了与之前相同的安全等级。

从这些功能到苹果多设备、平台的协同、互联等特性,方方面面都有苹果的NeuralEngine(神经引擎)参与,也是苹果AI所呈现的方式。

与生成式AI不同,苹果AI注重的是,如何提升终端用户的体验。

Siri有没有可能变成类ChatGPT?

ChatGPT推出后不久,接入官方API的网页版套壳App也层出不穷,但真正能够嵌入系统,或者还未能落实到终端的应用、交互。

这也是此前认为ChatGPT、新bing等生成式AI还停留在古早的对话框交互当中。

真正的人机交互,或者说终端服务还未酝酿出来。

OpenAICEOSamAltman在麻省理工的演讲里曾表示,「大型模型时代已经到头了,我们需要用新的思路和方法,让AIGC取得新的进展。」

在揭示AIGC行业发展趋势的同时,也暗示新入局的科技公司,「你们已经落伍了」。

这对于错过AIGC第一波浪潮的苹果来说,其实也是一个契机,没必要再利用资源去训练自己的语言模型,而应当考虑,如何把生成式AI嵌入到自己的生态当中。

不重复造轮子,不如考虑造一辆车。

而「年久失修」的Siri,能否把大语言模型嫁接到Siri上,让他变成一个SmartSiri,让其成为能够控制一个AppleID下,苹果所有生态设备的一个智能管家(类似于Javis),进而带来一种全新的人机交互形式。只是,让Siri重获新生,可能并没有预期的,把大语言模型融合进Siri原本的算法那般简单。

把Siri变成类ChatGPT,由于二者的处理方式完全不同,几乎需要重构Siri整个数据库,无异于推到再来,重新构建,可能需要重组团队,以及耗费不少资源来重新与硬件系统对接。

另外,我们之前也报道过,AIGC每次询问生成,都要耗费不少的云算力。

目前OpenAI的ChatGPT几乎吃掉了微软Azure云计算中心的算力资源,甚至还有些吃紧。

苹果的云计算中心规模不大,在全球的规模远不及微软、甲骨文这些对外提供云服务业务的传统大公司。苹果云服务多是自我满足,为自己的iCloud、AppStore等业务提供支持。

倘若把AIGC一股脑的引入到iPhone、iPad、Mac当中,苹果所需要的算力将会是个天文数字。

即便苹果有算力支持,按照此前的推算,GPT-4每千个提示词的成本高达12美分,加上苹果全球仅iPhone用户就突破十亿,运行的成本极其高昂。

不论是从客观条件,还是苹果主观意愿上,苹果很难直接将类ChatGPT技术引入到Siri,并直接部署到生态当中。

苹果仍需要找一个合适的时机和切入点,这个时机可能是生成式AI的成本大降,或者说是从一个小功能入手,利用AIGC提升用户的体验。

而从苹果一贯对AI的态度来看,后者更可能是苹果的最终做法。

对于AI,苹果看重的是「效率」和「隐私」

除了时机,还有两个公司战略和策略上的不同,让苹果与生成式AI保持着冷静。

2020年,苹果机器学习和人工智能战略高级副总裁JohnGiannandrea以及产品营销副总裁BobBorchers在Arstechnica关于苹果AI相关业务的采访里,他们都坚定的表达了苹果AI战略的两个要点。

一是效率,二是隐私。

效率指的是,在本地执行的机器学习算法和模型,响应更快,与性能更好。

隐私顾名思义就是隐私保护。

在这篇接近万字的采访当中,这两个关键策略,被JohnGiannandrea反复的提及,可见苹果对于AI技术有着几乎偏执而严苛的追求。

现在回头看,苹果这两个坚持,也促使苹果在造芯事业上,会把A系列、M系列AppleNeuralEngine的优先级提到CPU、GPU之前,已经成为每代芯片着重升级的核心。

有意思的是,每代苹果A系列、M系列芯片发布时,苹果会公布CPU、GPU、统一内存等一系列相关规格和架构信息。

但唯独到了NeuralEngine这里,只有一个笼统的数据,更像是一个黑盒子,仿佛神经引擎才是所有芯片里最大的秘密。

另外,这两位高管也认为苹果自iPhoneX起,芯片里就包括的神经引擎,是实现本地机内处理AI算法的一个先决条件。

为此,苹果将许多机器学习的算法尽可能缩小规模,以便部署到本地。甚至也强调,把算法模型做小,才是真本事。

部署到本地,可以能够快速的本地调用模型算法,响应无延迟。另外就是不需要上传用户数据,规避了「隐私」问题。

像是跟踪ApplePencil笔触、图像识别等AI参与的功能当中,由于算法模型训练的足够好,不需要上传云,进行协助运算,本地就能处理完成。

而类似于ChatGPT生成式AI,完全依赖于网络,即便推出了好几个月,服务仍然不够稳定,时不时的会出错。

这对苹果这种追求用户体验的公司来说,不允许有如此不稳定的状况发生。

隐私保护,已经是苹果近年以来的一则战略,尽管面对非议,并会减少相关收益,苹果依旧在iOS14.5上推出了苹果应用追踪透明度框架(App反追踪,AppTrackingTransparency,简称ATT),站在了用户这边。

苹果的一些AI模型算法不需要联网,而有些则需要收集部分数据进行训练(像是Siri),为此苹果会事先声明,并在收集过程中去除敏感信息(像是AppleID等)。

当下流行的生成式AI则与苹果谨慎的态度有些不同,他们几乎是抓取了许多互联网内容进行算法参数训练,并以此为基础生成。

而当他们推出相关产品,像是微软Copilot、Midjourney、StabilityAI,也受到了许多网站和机构的侵权法律诉讼,声称这些公司非法刮取优版权的内容进行创作,有违版权法。

虽然对于版权的争论还未有结果,但如此有非议的训练过程,其实有违于苹果对数据隐私保护的一大追求。

AIGC目前无法部署到本地,并且联网很难保证比较完美的提供服务,另外存在着数据隐私问题。

AIGC的主流技术几乎与苹果在AI追求上背道而驰,也解释了苹果没有及时切入,和对生成式AI发表相应的产品或者声明。

对于AI,我们认知的可能是Siri,但对于苹果本身来说,其实是NeuralEngine成为A系列芯片独立模块开始,苹果就把精力着重在本地化AI上,目的也很纯粹,没有想用AI改变世界,就是为了提升用户体验。

苹果并非是一个纯粹的AI公司,云数据中心仅为自己软件业务,造芯也是为了硬件,苹果技术行业的扩展都是为了产品服务,说到底他就是一家产品驱动的公司。

其战略、策略、技术布局等等都是围绕着核心产品服务。像是接下来推出的XR设备,苹果正在拓展视觉识别上的AI团队,并没有去追逐硅谷的热点。

苹果很明确自己的优劣势,没有一味的被别人牵着鼻子走,而是以一种很稳定的发展策略去布局。

另外,苹果总会在新技术新趋势下,观察许久,以自己独特的视角去切入,对于生成式AI,苹果或许也会以一种我们都没有预想的方向发展,并让我们眼界大开。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇