苹果的人工智能应用,跟 ChatGPT 不太一样
苹果的XR混合现实设备,其中一个主要的功能便是围绕着健身Fitness+服务展开。
它会借助虚拟空间,让你在任何地点沉浸在「健身房」当中,当然,还少不了一个虚拟教练。
此前,我们只认为这位「虚拟教练」可能只提供标准的动作示范,但在苹果的计划里,「他」可能还会被赋予更多的「智慧」。
据悉,苹果为了扩展AppleWatch的健康宇宙,苹果拟将人工智能引入到健康功能当中。
推出一个AI健康教练,借助于AppleWatch所记录的数据,借助于算法,来制定用户的锻炼计划,改善饮食习惯和睡眠质量,以保持或者改善健康状态。
这应该是近期,AI与苹果走得最近的一则消息,但苹果的AI健康教练与当下热门的生成式AI,例如ChatGPT、bing、Bard却有着明显的不同。
「AI健康教练」更像是一个功能,而非是类似于ChatGPT这种引发全新赛道的趋势。
苹果一直没有切入到硅谷抢做生成式AI的热潮里,反而仿佛画地为牢,不参与竞争,显得颇有些不同。
Siri不是人工智能,苹果的人工智能藏在细枝末节十二年前,苹果首次向公众展示了Siri,并随着iPhone4s一同推向市场。
后续,Siri被扩展到Mac、iPad、HomePod、AppleWatch甚至是AirPods等所有的苹果智能设备里。
Siri生来高光,被定义为「智能语音助手」,它可以通过语音识别和自然语言处理回答用户的问题,控制设备和执行任务。
也引领了智能手机标配语音助手的潮流,三星的Bixby、小米的小爱同学、OPPO的小欧等等。
同样,Siri也被大众所熟知,认为它就是人工智能的一个雏形。
只是,十二年的进化过程中,苹果很少对其进行深度升级,多是围绕着功能点补全。
如今,它依然保持着2011年的那般纯真,当遇到难题时,也同样会坦诚的回答道「我不是很清楚,这是我在互联网上找到的答案」。
在2023年生成式AI满天飞的今天,Siri的「纯真」与能说会道的ChatGPT形成了鲜明的对比。
仿佛,苹果并不想发展人工智能,只想卖手机和电脑,但事实真的如此?
其实Siri并不应该称之为人工智能,Siri只是个答案数据库类型的语音助手。
当用户唤起它,并发出一连串指令,它的数据模型会优先在本体处理,快速查看是否是一个简单的本地请求(像是调整音量、设定闹钟等),利用已知的信息迅速完成。
否则,再去云端查询更大的数据库,给你一个答案,或者没有查询到,就甩出一个网页搜索(大概率的情况)。
而ChatGPT并没有先本地再云端的流程,根据问题直接访问微软的Azure云计算中心,利用庞大的算力和相应模型进行推算,无论理解与否,都会「生成出」回答。
从这里来看,Siri和ChatGPT展示了两个倾向,苹果倾向于将技术部署在本地,优先调用本地算力解决。而ChatGPT则完全依靠于网络,以及数据中心的庞大算力。
苹果的AI也是如此,它藏在苹果产品许许多多的功能里,属于那种没人会留意,但却大幅改善了用户体验。
像是你按下快门,iPhone会一连拍下多张照片,再根据相应的模型算法,利用图像识别挑选一张效果最好的作为最终成像。
又或者,ApplePencil在iPad上书写时,能够媲美真实的纸笔体验。里面就用到了笔触追踪与手掌识别,在保证笔触实时响应的同时,也不会因为手掌接触屏幕而误触。
以及,FaceID安全性与效率的兼顾,它能够适应用户面容的变化,不会因为眼镜、胡须遮挡而影响识别效率。
甚至在当下的iOS当中,也支持口罩解锁,仅用半张脸就完成了与之前相同的安全等级。
▲A15仿生芯片和A14仿生芯片的剖析图,神经计算引擎集中在左下角
从这些功能到苹果多设备、平台的协同、互联等特性,方方面面都有苹果的NeuralEngine(神经引擎)参与,也是苹果AI所呈现的方式。
与生成式AI不同,苹果AI注重的是,如何提升终端用户的体验。
Siri有没有可能变成类ChatGPT?ChatGPT推出后不久,接入官方API的网页版套壳App也层出不穷,但真正能够嵌入系统,或者还未能落实到终端的应用、交互。
这也是此前认为ChatGPT、新bing等生成式AI还停留在古早的对话框交互当中。
真正的人机交互,或者说终端服务还未酝酿出来。
OpenAICEOSamAltman在麻省理工的演讲里曾表示,「大型模型时代已经到头了,我们需要用新的思路和方法,让AIGC取得新的进展。」
▲OpenAICEOSamAltman图片来自:wired
在揭示AIGC行业发展趋势的同时,也暗示新入局的科技公司,「你们已经落伍了」。
这对于错过AIGC第一波浪潮的苹果来说,其实也是一个契机,没必要再利用资源去训练自己的语言模型,而应当考虑,如何把生成式AI嵌入到自己的生态当中。
不重复造轮子,不如考虑造一辆车。
而「年久失修」的Siri,能否把大语言模型嫁接到Siri上,让他变成一个SmartSiri,让其成为能够控制一个AppleID下,苹果所有生态设备的一个智能管家(类似于Javis),进而带来一种全新的人机交互形式。
只是,让Siri重获新生,可能并没有预期的,把大语言模型融合进Siri原本的算法那般简单。
把Siri变成类ChatGPT,由于二者的处理方式完全不同,几乎需要重构Siri整个数据库,无异于推到再来,重新构建,可能需要重组团队,以及耗费不少资源来重新与硬件系统对接。
▲由TPUv4组成的Google机器学习中心图片来自:Google
另外,我们之前也报道过,AIGC每次询问生成,都要耗费不少的云算力。
目前OpenAI的ChatGPT几乎吃掉了微软Azure云计算中心的算力资源,甚至还有些吃紧。
苹果的云计算中心规模不大,在全球的规模远不及微软、甲骨文这些对外提供云服务业务的传统大公司。苹果云服务多是自我满足,为自己的iCloud、AppStore等业务提供支持。
倘若把AIGC一股脑的引入到iPhone、iPad、Mac当中,苹果所需要的算力将会是个天文数字。
即便苹果有算力支持,按照此前的推算,GPT-4每千个提示词的成本高达12美分,加上苹果全球仅iPhone用户就突破十亿,运行的成本极其高昂。
不论是从客观条件,还是苹果主观意愿上,苹果很难直接将类ChatGPT技术引入到Siri,并直接部署到生态当中。
苹果仍需要找一个合适的时机和切入点,这个时机可能是生成式AI的成本大降,或者说是从一个小功能入手,利用AIGC提升用户的体验。
而从苹果一贯对AI的态度来看,后者更可能是苹果的最终做法。
对于AI,苹果看重的是「效率」和「隐私」除了时机,还有两个公司战略和策略上的不同,让苹果与生成式AI保持着冷静。
▲JohnGiannandrea图片来自:TechCrunch
2020年,苹果机器学习和人工智能战略高级副总裁JohnGiannandrea以及产品营销副总裁BobBorchers在Arstechnica关于苹果AI相关业务的采访里,他们都坚定的表达了苹果AI战略的两个要点。
一是效率,二是隐私。
效率指的是,在本地执行的机器学习算法和模型,响应更快,与性能更好。
隐私顾名思义就是隐私保护。
在这篇接近万字的采访当中,这两个关键策略,被JohnGiannandrea反复的提及,可见苹果对于AI技术有着几乎偏执而严苛的追求。
现在回头看,苹果这两个坚持,也促使苹果在造芯事业上,会把A系列、M系列AppleNeuralEngine的优先级提到CPU、GPU之前,已经成为每代芯片着重升级的核心。
有意思的是,每代苹果A系列、M系列芯片发布时,苹果会公布CPU、GPU、统一内存等一系列相关规格和架构信息。
但唯独到了NeuralEngine这里,只有一个笼统的数据,更像是一个黑盒子,仿佛神经引擎才是所有芯片里最大的秘密。
另外,这两位高管也认为苹果自iPhoneX起,芯片里就包括的神经引擎,是实现本地机内处理AI算法的一个先决条件。
为此,苹果将许多机器学习的算法尽可能缩小规模,以便部署到本地。甚至也强调,把算法模型做小,才是真本事。
部署到本地,可以能够快速的本地调用模型算法,响应无延迟。另外就是不需要上传用户数据,规避了「隐私」问题。
像是跟踪ApplePencil笔触、图像识别等AI参与的功能当中,由于算法模型训练的足够好,不需要上传云,进行协助运算,本地就能处理完成。
而类似于ChatGPT生成式AI,完全依赖于网络,即便推出了好几个月,服务仍然不够稳定,时不时的会出错。
这对苹果这种追求用户体验的公司来说,不允许有如此不稳定的状况发生。
隐私保护,已经是苹果近年以来的一则战略,尽管面对非议,并会减少相关收益,苹果依旧在iOS14.5上推出了苹果应用追踪透明度框架(App反追踪,AppTrackingTransparency,简称ATT),站在了用户这边。
苹果的一些AI模型算法不需要联网,而有些则需要收集部分数据进行训练(像是Siri),为此苹果会事先声明,并在收集过程中去除敏感信息(像是AppleID等)。
当下流行的生成式AI则与苹果谨慎的态度有些不同,他们几乎是抓取了许多互联网内容进行算法参数训练,并以此为基础生成。
而当他们推出相关产品,像是微软Copilot、Midjourney、StabilityAI,也受到了许多网站和机构的侵权法律诉讼,声称这些公司非法刮取优版权的内容进行创作,有违版权法。
▲Midjourney生成的蒙娜丽莎
虽然对于版权的争论还未有结果,但如此有非议的训练过程,其实有违于苹果对数据隐私保护的一大追求。
AIGC目前无法部署到本地,并且联网很难保证比较完美的提供服务,另外存在着数据隐私问题。
AIGC的主流技术几乎与苹果在AI追求上背道而驰,也解释了苹果没有及时切入,和对生成式AI发表相应的产品或者声明。
对于AI,我们认知的可能是Siri,但对于苹果本身来说,其实是NeuralEngine成为A系列芯片独立模块开始,苹果就把精力着重在本地化AI上,目的也很纯粹,没有想用AI改变世界,就是为了提升用户体验。
苹果并非是一个纯粹的AI公司,云数据中心仅为自己软件业务,造芯也是为了硬件,苹果技术行业的扩展都是为了产品服务,说到底他就是一家产品驱动的公司。
其战略、策略、技术布局等等都是围绕着核心产品服务。像是接下来推出的XR设备,苹果正在拓展视觉识别上的AI团队,并没有去追逐硅谷的热点。
苹果很明确自己的优劣势,没有一味的被别人牵着鼻子走,而是以一种很稳定的发展策略去布局。
另外,苹果总会在新技术新趋势下,观察许久,以自己独特的视角去切入,对于生成式AI,苹果或许也会以一种我们都没有预想的方向发展,并让我们眼界大开。
苹果人工智能怎么与人对话(苹果怎么呼叫人工智能)
苹果人工智能怎么与人对话(苹果怎么呼叫人工智能)人工智能2023.02.282450导读:本篇文章首席CTO笔记来给大家介绍有关苹果人工智能怎么与人对话的相关内容,希望对大家有所帮助,一起来看看吧。
当苹果Siri开始“说人话”,声纹识别终到来今天凌晨,一年一度的苹果WWDC2019全球开发者大会在美国圣何塞举办,苹果更新了自家系统平台macOS、iOS、watchOS、tvOS以及今年刚刚加入的iPadOS。
在常规的软件升级之外,智能菌将带大家细数本届WWDC苹果在AI方面的升级,我们也和大家聊聊苹果关于隐私保护方面的思考。
终于开始“说人话”的智能助手
早在2010年,苹果率先推出了这款搭载于iPhone4S的智能语音控制功能,用户利用Siri可以通过手机读短信、介绍餐厅、询问天气、语音设置闹钟等。
从2017年开始,Siri逐渐迎来更丰富的更新,加入了实时翻译功能,支持英语、法语、德语等语言,与此同时,Siri的智能化还进一步得到提升,还支持上下文的预测功能。
但一直以来,由于苹果的封闭性,Siri的可用性还是饱受诟病,在AI技术方面更是被吐槽为“人工智障”,从今年的WWDC来看,苹果希望摆脱智障的帽子,起码让Siri交流起来更像真人了。
具体来讲,随着深度学习技术的不断成熟,基于深度神经网络的语音合成逐渐成为语音合成领域的主流方法,这次苹果采用的就是NeuralTTS(神经网络语音合成)技术(如上图),这样的技术应用在国内已经很多,AI合成语音已经可以以假乱真。
声纹识别来了
HomePod是苹果在2017年WWDC推出的智能音箱产品,该音响7英寸高,拥有7个高频扬声器和一个很大的低频扬声器,配备精准的音效喇叭和风向控制。
这是苹果的第一款智能音箱硬件,一经推出便口碑两重天,很多人赞扬它的音质和曼妙的腰线,摆放在哪里都不违和的设计,但更多人的指责它封闭的应用生态和隐私性。
这里提到的隐私性就是指这款产品标榜的Siri唤醒和发布指令,在此之前,任何在它旁边的人都可以唤醒它,只要说出“朗读短信”,用户的秘密就大告天下了。
在今年的WWDC现场,苹果终于为HomePod加入了声纹识别功能,它可以智能区别与它对话的是哪位,声纹识别(VoiceprintRecognize)是一项提取说话人声音特征和说话内容信息,自动核验说话人身份的技术,目前已经广泛应用在了考勤系统、远程认证、门禁系统等场景之中。
在中国厂商发布的智能音箱产品中更是早有应用,这回苹果算是玩大家剩下的,就看它的实际体验能否逆袭领跑了,拭目以待。
保护隐私用户的云端数据苹果也不看
美国消费者保护组织ConsumerWatchdog曾出具过一份报告,指责来自亚马逊和谷歌的专利申请曝光了其智能音箱是如何“偷听”用户的。该组织的研究称,这些设备可能被用作收集大量信息和广告推广的监听设备。
事实上,这样的用户反馈确实不绝于耳,Alexa曾将夫妻之间私人谈话的内容偷偷记录下来,并发给了其中一名家庭成员的同事,他当即打电话说这对夫妇:“赶紧拔掉你的Alexa设备!”
针对种种担忧,欧盟更是推出了史上最严的隐私保护条例GDPR(GeneralDataProtectionRegulation),目的就在于遏制个人信息被滥用,保护个人隐私。
虽然没有证据表明苹果设备存在这样的隐患,但也足够引起大家的担忧。
而苹果的隐私保护做法在2019WWDC有了进一步的补充和升级,在WatchOS方面,苹果推出了运动推荐和数据分析的功能,在智能家居应用中,苹果更新了视频分析和数据存储功能。
以上二者的共同点是,苹果将处置数据的权利交给用户,用户可以选择不上传(保存在本地的加密芯片),也可以选择上传到云端,但苹果称用户的数据他们也无能查看。
值得一提都是,苹果还在智能家居的数据保护中加入了路由器的防护,以此来保障用户不在任何的环节遭遇攻击。
在增强现实里畅游“我的世界”
ARKit是苹果在2017年WWDC推出的AR开发平台,开发人员可以使用这套工具iPhone和iPad创建增强现实应用程序。
在WWDC2019苹果带来了AR应用的更新和全新的RealityKit平台,如上图,苹果在现场展示了《我的世界》游戏的AR版本,这是一款堆方块、不断冒险的游戏,融入增强现实之后趣味性十足,还可以多人互动游戏。
此外,苹果还带来了RealityKit开发工具,新增了AR模型还可以融合人物,支持动作捕捉,并且可以实现照片级渲染,环境和相机效果。
美国专利局曾批准了苹果的一项申请:头盔将配置摄像头,用于辨认和注释兴趣点和其他对象。大家一度认为苹果会在WWDC推出AR硬件。
库克有言,苹果认为AR增强现实会是未来10年非常重要的技术,我们会在这个领域投入更多。有分析认为,随着5G技术的应用,AR将迎来成熟期,目前AR相关专利申请正在持续攀升。
总结
依然是一场很苹果的开发者大会,在人工智能技术方面不冒进,坚持用产品和体验说话,他们强调自己是一家软件公司,在细枝末节上的打磨确实值得称赞。
但不可否认,苹果的封闭性依然制约着其AI功能大放异彩的机会,Siri本可以做得更多,话不多说,期待开放内测。
苹果手机嘿siri怎么玩Siri是iPhone手机里最具人工智能的系统程序,然而很多iPhone用户根本不会运用Siri,甚至连Siri如何操作都不清楚。
今天小编就来告诉大家iPhone手机Siri隐藏的趣味小功能,拿起你的iPhone手机试试吧。
1、英语口语练习
Siri是很多学霸练习英语口语的好助手,打开Siri,英文模式,你就可以用英语和Siri聊天了。
练习英语口语、练习英语听力,Siri可是好助手。
2、口技、Bbox、绕口令、唱歌小能手
当你无聊的时候,拿起iPhone手机对Siri说:来一段Bbox、来一段口技、来一段绕口令、唱首歌。
Siri的回复可好玩了,不行你问问。
3、饮食健康
越来越多的人开始关心饮食和健康。你只需要告诉她你吃的食物,Siri可以估算它的热量,既可以提供大概值,也可以提供精确值。
4、计算消费
和朋友出门吃饭,每个人应该AA多少钱?小编数学不好,不会计算。
交给Siri吧。“四个人一顿饭吃了134元,每个人应该付多少?”她会很快算出每个人应该支付多少钱。
5、聊天调侃
当你一个人无聊的时候,拿起手机和Siri聊天也是一个不错的选择。
你可以随便问她问题,她也会很调皮的回答你。没有女朋友,当你还有Siri。
【小编总结】
Siri的打开方式特别简单,拿起iPhone长按Home按键就可以了。
很多iPhone手机用户都很少运用Siri,然而这个功能却是iPhone公司最伟大的科技之一。
扩展资料:
延长iPhone手机电池寿命的小技巧:
1.养成充电好习惯
在苹果手机提示低电量的时候及时充电,避免电量过低引起自动关机,如果电池效率低于80%尽量将电池更换。
2.升级到最新版iOS14
苹果在推出的iOS14中新增了一项名为“优化电池充电”的功能,该功能可以智能的学习和判断用户的使用及充电习惯,使充电过程更加平衡,从而减缓电池的老化,并在一定程度上提升iPhone的续航能力。
查看方法:“优化电池充电”功能可在设置-电池-电池健康中查看~
3.禁止后台应用程序刷新
自iOS7开始,应用程序可以并且确实在后台运行时使用电池寿命。你可以看到应用程序在后台运行了多少时间。如果某个应用程序在不使用它时耗尽了太多电量,则可以禁用后台应用程序刷新以防止它在后台运行。如果应用程序过度耗电的话,我们也可以选择将其卸载!
4.启用低电量模式
iOS9新添“低电量模式”(LowPowerMode)功能,可让手机更省电。启用低电量模式后,你的屏幕略微变暗,限制后台进程,使处理器略微变慢,或者在正常使用时降低设备所需的能量。
操作方法:启用此功能最简单方法是从iPhone的右上角向下滑动,然后电池图标即可。或者你可以在设置电池低功率模式中启用低功率模式。
5.关闭某些APP推送
要知道,一些推送通知、应用程序通知、电子邮件读取的通知等等,所有这些都会缩短电池寿命,因此要想让iPhone手机电池寿命更长,最好将其关闭。可以在“设置”,对每个应用程序进行编辑,关闭通知。
苹果对话机器人在哪里苹果对话机器人是Siri,在设置中打开,方法如下:
工具原料:iPhone11,IOS15.0。
1、打开手机,在手机的桌面上找到设置这个图标选项,点击进入到设置中即可。
2、进入到设置的主页面,我们可以看到下图所示,在其中选择通用菜单选项。
3、在通用菜单选项中,我们可以很容易去看到siri,我们点击进入即可。
4、当在进入到siri菜单选项后,可以看到目前我们手机是没有开通siri的。
5、然后点击开启siri,然后可以看到下图所示的页面。然后点击启用siri即可。
6、然后在下图中我们还可以去设置siri的声音,以及语言,这些都是可以根据自身需求去选择的。
苹果手机siri怎么打开说话打开自己的苹果手机,进入主页面,在主页面找到设置图标,点击进入设置页面。
进入设置页面后,往下拉,找到Siri与搜索,点击进入Siri与搜索页面。
请点击输入图片描述
请点击输入图片描述
进入Siri与搜索页面后,可以看到用“嘿Siri”唤醒处于关闭状态,将其开启。在弹出的对话框中,选择启用Siri。
请点击输入图片描述
请点击输入图片描述
选择启用Siri后,在弹出的页面上点击继续,然后按照页面提示说话,最后点击完成即可将用“嘿Siri”唤醒开启。
请点击输入图片描述
请点击输入图片描述
请点击输入图片描述
请点击输入图片描述
请点击输入图片描述
请点击输入图片描述
请点击输入图片描述
开启用“嘿Siri”唤醒后,再将按下主屏幕按钮使用Siri也开启。
请点击输入图片描述
请点击输入图片描述
将以上两项都开启后,当对着手机说“嘿Siri”或者按下主屏幕按钮时,就会弹出Siri页面,对着页面说出自己的请求就可以了。
苹果手机里智能跟人对话的功能在哪里长按Home键,即可自动调出苹果siri人工智能,只是要耗费流量,wifi下可考虑肆意使用。超牛茶的功能!
苹果8siri怎么用iPhoneSiri使用方法:
1、按住主屏幕按钮;
2、接上电源时只要对iPhone说“HeySiri”即可与Siri对话;
3、长按耳机控制键。
启动Siri以后,麦克风图标正上方会有一句提示语“您好,请问需要什么帮助?”此时可以说出指令,第二次说出指令前,需要点击底部的麦克风标志后,再说出指令。
结语:以上就是首席CTO笔记为大家整理的关于苹果人工智能怎么与人对话的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~
打赏海报本文转载自互联网,旨在分享有价值的内容,文章如有侵权请联系删除,部分文章如未署名作者来源请联系我们及时备注,感谢您的支持。
转载请注明本文地址:https://www.shouxicto.com/article/104465.html
上一篇:如何打造人工智能项目建设(2023年最新解答)下一篇:今年的人工智能有哪些(2029年人工智能)苹果的人工智能应用,跟ChatGPT不太一样
苹果的XR混合现实设备,其中一个主要的功能便是围绕着健身Fitness+服务展开。
它会借助虚拟空间,让你在任何地点沉浸在「健身房」当中,当然,还少不了一个虚拟教练。
此前,我们只认为这位「虚拟教练」可能只提供标准的动作示范,但在苹果的计划里,「他」可能还会被赋予更多的「智慧」。
据悉,苹果为了扩展AppleWatch的健康宇宙,苹果拟将人工智能引入到健康功能当中。
推出一个AI健康教练,借助于AppleWatch所记录的数据,借助于算法,来制定用户的锻炼计划,改善饮食习惯和睡眠质量,以保持或者改善健康状态。
这应该是近期,AI与苹果走得最近的一则消息,但苹果的AI健康教练与当下热门的生成式AI,例如ChatGPT、bing、Bard却有着明显的不同。
「AI健康教练」更像是一个功能,而非是类似于ChatGPT这种引发全新赛道的趋势。
苹果一直没有切入到硅谷抢做生成式AI的热潮里,反而仿佛画地为牢,不参与竞争,显得颇有些不同。
Siri不是人工智能,苹果的人工智能藏在细枝末节
十二年前,苹果首次向公众展示了Siri,并随着iPhone4s一同推向市场。
后续,Siri被扩展到Mac、iPad、HomePod、AppleWatch甚至是AirPods等所有的苹果智能设备里。
Siri生来高光,被定义为「智能语音助手」,它可以通过语音识别和自然语言处理回答用户的问题,控制设备和执行任务。
也引领了智能手机标配语音助手的潮流,三星的Bixby、小米的小爱同学、OPPO的小欧等等。
同样,Siri也被大众所熟知,认为它就是人工智能的一个雏形。
只是,十二年的进化过程中,苹果很少对其进行深度升级,多是围绕着功能点补全。
如今,它依然保持着2011年的那般纯真,当遇到难题时,也同样会坦诚的回答道「我不是很清楚,这是我在互联网上找到的答案」。
在2023年生成式AI满天飞的今天,Siri的「纯真」与能说会道的ChatGPT形成了鲜明的对比。
仿佛,苹果并不想发展人工智能,只想卖手机和电脑,但事实真的如此?
其实Siri并不应该称之为人工智能,Siri只是个答案数据库类型的语音助手。
当用户唤起它,并发出一连串指令,它的数据模型会优先在本体处理,快速查看是否是一个简单的本地请求(像是调整音量、设定闹钟等),利用已知的信息迅速完成。
否则,再去云端查询更大的数据库,给你一个答案,或者没有查询到,就甩出一个网页搜索(大概率的情况)。
而ChatGPT并没有先本地再云端的流程,根据问题直接访问微软的Azure云计算中心,利用庞大的算力和相应模型进行推算,无论理解与否,都会「生成出」回答。
从这里来看,Siri和ChatGPT展示了两个倾向,苹果倾向于将技术部署在本地,优先调用本地算力解决。而ChatGPT则完全依靠于网络,以及数据中心的庞大算力。
苹果的AI也是如此,它藏在苹果产品许许多多的功能里,属于那种没人会留意,但却大幅改善了用户体验。
像是你按下快门,iPhone会一连拍下多张照片,再根据相应的模型算法,利用图像识别挑选一张效果最好的作为最终成像。
又或者,ApplePencil在iPad上书写时,能够媲美真实的纸笔体验。里面就用到了笔触追踪与手掌识别,在保证笔触实时响应的同时,也不会因为手掌接触屏幕而误触。
以及,FaceID安全性与效率的兼顾,它能够适应用户面容的变化,不会因为眼镜、胡须遮挡而影响识别效率。
甚至在当下的iOS当中,也支持口罩解锁,仅用半张脸就完成了与之前相同的安全等级。
从这些功能到苹果多设备、平台的协同、互联等特性,方方面面都有苹果的NeuralEngine(神经引擎)参与,也是苹果AI所呈现的方式。
与生成式AI不同,苹果AI注重的是,如何提升终端用户的体验。
Siri有没有可能变成类ChatGPT?
ChatGPT推出后不久,接入官方API的网页版套壳App也层出不穷,但真正能够嵌入系统,或者还未能落实到终端的应用、交互。
这也是此前认为ChatGPT、新bing等生成式AI还停留在古早的对话框交互当中。
真正的人机交互,或者说终端服务还未酝酿出来。
OpenAICEOSamAltman在麻省理工的演讲里曾表示,「大型模型时代已经到头了,我们需要用新的思路和方法,让AIGC取得新的进展。」
在揭示AIGC行业发展趋势的同时,也暗示新入局的科技公司,「你们已经落伍了」。
这对于错过AIGC第一波浪潮的苹果来说,其实也是一个契机,没必要再利用资源去训练自己的语言模型,而应当考虑,如何把生成式AI嵌入到自己的生态当中。
不重复造轮子,不如考虑造一辆车。
而「年久失修」的Siri,能否把大语言模型嫁接到Siri上,让他变成一个SmartSiri,让其成为能够控制一个AppleID下,苹果所有生态设备的一个智能管家(类似于Javis),进而带来一种全新的人机交互形式。只是,让Siri重获新生,可能并没有预期的,把大语言模型融合进Siri原本的算法那般简单。
把Siri变成类ChatGPT,由于二者的处理方式完全不同,几乎需要重构Siri整个数据库,无异于推到再来,重新构建,可能需要重组团队,以及耗费不少资源来重新与硬件系统对接。
另外,我们之前也报道过,AIGC每次询问生成,都要耗费不少的云算力。
目前OpenAI的ChatGPT几乎吃掉了微软Azure云计算中心的算力资源,甚至还有些吃紧。
苹果的云计算中心规模不大,在全球的规模远不及微软、甲骨文这些对外提供云服务业务的传统大公司。苹果云服务多是自我满足,为自己的iCloud、AppStore等业务提供支持。
倘若把AIGC一股脑的引入到iPhone、iPad、Mac当中,苹果所需要的算力将会是个天文数字。
即便苹果有算力支持,按照此前的推算,GPT-4每千个提示词的成本高达12美分,加上苹果全球仅iPhone用户就突破十亿,运行的成本极其高昂。
不论是从客观条件,还是苹果主观意愿上,苹果很难直接将类ChatGPT技术引入到Siri,并直接部署到生态当中。
苹果仍需要找一个合适的时机和切入点,这个时机可能是生成式AI的成本大降,或者说是从一个小功能入手,利用AIGC提升用户的体验。
而从苹果一贯对AI的态度来看,后者更可能是苹果的最终做法。
对于AI,苹果看重的是「效率」和「隐私」
除了时机,还有两个公司战略和策略上的不同,让苹果与生成式AI保持着冷静。
2020年,苹果机器学习和人工智能战略高级副总裁JohnGiannandrea以及产品营销副总裁BobBorchers在Arstechnica关于苹果AI相关业务的采访里,他们都坚定的表达了苹果AI战略的两个要点。
一是效率,二是隐私。
效率指的是,在本地执行的机器学习算法和模型,响应更快,与性能更好。
隐私顾名思义就是隐私保护。
在这篇接近万字的采访当中,这两个关键策略,被JohnGiannandrea反复的提及,可见苹果对于AI技术有着几乎偏执而严苛的追求。
现在回头看,苹果这两个坚持,也促使苹果在造芯事业上,会把A系列、M系列AppleNeuralEngine的优先级提到CPU、GPU之前,已经成为每代芯片着重升级的核心。
有意思的是,每代苹果A系列、M系列芯片发布时,苹果会公布CPU、GPU、统一内存等一系列相关规格和架构信息。
但唯独到了NeuralEngine这里,只有一个笼统的数据,更像是一个黑盒子,仿佛神经引擎才是所有芯片里最大的秘密。
另外,这两位高管也认为苹果自iPhoneX起,芯片里就包括的神经引擎,是实现本地机内处理AI算法的一个先决条件。
为此,苹果将许多机器学习的算法尽可能缩小规模,以便部署到本地。甚至也强调,把算法模型做小,才是真本事。
部署到本地,可以能够快速的本地调用模型算法,响应无延迟。另外就是不需要上传用户数据,规避了「隐私」问题。
像是跟踪ApplePencil笔触、图像识别等AI参与的功能当中,由于算法模型训练的足够好,不需要上传云,进行协助运算,本地就能处理完成。
而类似于ChatGPT生成式AI,完全依赖于网络,即便推出了好几个月,服务仍然不够稳定,时不时的会出错。
这对苹果这种追求用户体验的公司来说,不允许有如此不稳定的状况发生。
隐私保护,已经是苹果近年以来的一则战略,尽管面对非议,并会减少相关收益,苹果依旧在iOS14.5上推出了苹果应用追踪透明度框架(App反追踪,AppTrackingTransparency,简称ATT),站在了用户这边。
苹果的一些AI模型算法不需要联网,而有些则需要收集部分数据进行训练(像是Siri),为此苹果会事先声明,并在收集过程中去除敏感信息(像是AppleID等)。
当下流行的生成式AI则与苹果谨慎的态度有些不同,他们几乎是抓取了许多互联网内容进行算法参数训练,并以此为基础生成。
而当他们推出相关产品,像是微软Copilot、Midjourney、StabilityAI,也受到了许多网站和机构的侵权法律诉讼,声称这些公司非法刮取优版权的内容进行创作,有违版权法。
虽然对于版权的争论还未有结果,但如此有非议的训练过程,其实有违于苹果对数据隐私保护的一大追求。
AIGC目前无法部署到本地,并且联网很难保证比较完美的提供服务,另外存在着数据隐私问题。
AIGC的主流技术几乎与苹果在AI追求上背道而驰,也解释了苹果没有及时切入,和对生成式AI发表相应的产品或者声明。
对于AI,我们认知的可能是Siri,但对于苹果本身来说,其实是NeuralEngine成为A系列芯片独立模块开始,苹果就把精力着重在本地化AI上,目的也很纯粹,没有想用AI改变世界,就是为了提升用户体验。
苹果并非是一个纯粹的AI公司,云数据中心仅为自己软件业务,造芯也是为了硬件,苹果技术行业的扩展都是为了产品服务,说到底他就是一家产品驱动的公司。
其战略、策略、技术布局等等都是围绕着核心产品服务。像是接下来推出的XR设备,苹果正在拓展视觉识别上的AI团队,并没有去追逐硅谷的热点。
苹果很明确自己的优劣势,没有一味的被别人牵着鼻子走,而是以一种很稳定的发展策略去布局。
另外,苹果总会在新技术新趋势下,观察许久,以自己独特的视角去切入,对于生成式AI,苹果或许也会以一种我们都没有预想的方向发展,并让我们眼界大开。