博舍

苹果的人工智能应用,跟 ChatGPT 不太一样 苹果人工智能软件

苹果的人工智能应用,跟 ChatGPT 不太一样

苹果的XR混合现实设备,其中一个主要的功能便是围绕着健身Fitness+服务展开。

它会借助虚拟空间,让你在任何地点沉浸在「健身房」当中,当然,还少不了一个虚拟教练。

此前,我们只认为这位「虚拟教练」可能只提供标准的动作示范,但在苹果的计划里,「他」可能还会被赋予更多的「智慧」。

据悉,苹果为了扩展AppleWatch的健康宇宙,苹果拟将人工智能引入到健康功能当中。

推出一个AI健康教练,借助于AppleWatch所记录的数据,借助于算法,来制定用户的锻炼计划,改善饮食习惯和睡眠质量,以保持或者改善健康状态。

这应该是近期,AI与苹果走得最近的一则消息,但苹果的AI健康教练与当下热门的生成式AI,例如ChatGPT、bing、Bard却有着明显的不同。

「AI健康教练」更像是一个功能,而非是类似于ChatGPT这种引发全新赛道的趋势。

苹果一直没有切入到硅谷抢做生成式AI的热潮里,反而仿佛画地为牢,不参与竞争,显得颇有些不同。

Siri不是人工智能,苹果的人工智能藏在细枝末节

十二年前,苹果首次向公众展示了Siri,并随着iPhone4s一同推向市场。

后续,Siri被扩展到Mac、iPad、HomePod、AppleWatch甚至是AirPods等所有的苹果智能设备里。

Siri生来高光,被定义为「智能语音助手」,它可以通过语音识别和自然语言处理回答用户的问题,控制设备和执行任务。

也引领了智能手机标配语音助手的潮流,三星的Bixby、小米的小爱同学、OPPO的小欧等等。

同样,Siri也被大众所熟知,认为它就是人工智能的一个雏形。

只是,十二年的进化过程中,苹果很少对其进行深度升级,多是围绕着功能点补全。

如今,它依然保持着2011年的那般纯真,当遇到难题时,也同样会坦诚的回答道「我不是很清楚,这是我在互联网上找到的答案」。

在2023年生成式AI满天飞的今天,Siri的「纯真」与能说会道的ChatGPT形成了鲜明的对比。

仿佛,苹果并不想发展人工智能,只想卖手机和电脑,但事实真的如此?

其实Siri并不应该称之为人工智能,Siri只是个答案数据库类型的语音助手。

当用户唤起它,并发出一连串指令,它的数据模型会优先在本体处理,快速查看是否是一个简单的本地请求(像是调整音量、设定闹钟等),利用已知的信息迅速完成。

否则,再去云端查询更大的数据库,给你一个答案,或者没有查询到,就甩出一个网页搜索(大概率的情况)。

而ChatGPT并没有先本地再云端的流程,根据问题直接访问微软的Azure云计算中心,利用庞大的算力和相应模型进行推算,无论理解与否,都会「生成出」回答。

从这里来看,Siri和ChatGPT展示了两个倾向,苹果倾向于将技术部署在本地,优先调用本地算力解决。而ChatGPT则完全依靠于网络,以及数据中心的庞大算力。

苹果的AI也是如此,它藏在苹果产品许许多多的功能里,属于那种没人会留意,但却大幅改善了用户体验。

像是你按下快门,iPhone会一连拍下多张照片,再根据相应的模型算法,利用图像识别挑选一张效果最好的作为最终成像。

又或者,ApplePencil在iPad上书写时,能够媲美真实的纸笔体验。里面就用到了笔触追踪与手掌识别,在保证笔触实时响应的同时,也不会因为手掌接触屏幕而误触。

以及,FaceID安全性与效率的兼顾,它能够适应用户面容的变化,不会因为眼镜、胡须遮挡而影响识别效率。

甚至在当下的iOS当中,也支持口罩解锁,仅用半张脸就完成了与之前相同的安全等级。

▲A15仿生芯片和A14仿生芯片的剖析图,神经计算引擎集中在左下角

从这些功能到苹果多设备、平台的协同、互联等特性,方方面面都有苹果的NeuralEngine(神经引擎)参与,也是苹果AI所呈现的方式。

与生成式AI不同,苹果AI注重的是,如何提升终端用户的体验。

Siri有没有可能变成类ChatGPT?

ChatGPT推出后不久,接入官方API的网页版套壳App也层出不穷,但真正能够嵌入系统,或者还未能落实到终端的应用、交互。

这也是此前认为ChatGPT、新bing等生成式AI还停留在古早的对话框交互当中。

真正的人机交互,或者说终端服务还未酝酿出来。

OpenAICEOSamAltman在麻省理工的演讲里曾表示,「大型模型时代已经到头了,我们需要用新的思路和方法,让AIGC取得新的进展。」

▲OpenAICEOSamAltman图片来自:wired

在揭示AIGC行业发展趋势的同时,也暗示新入局的科技公司,「你们已经落伍了」。

这对于错过AIGC第一波浪潮的苹果来说,其实也是一个契机,没必要再利用资源去训练自己的语言模型,而应当考虑,如何把生成式AI嵌入到自己的生态当中。

不重复造轮子,不如考虑造一辆车。

而「年久失修」的Siri,能否把大语言模型嫁接到Siri上,让他变成一个SmartSiri,让其成为能够控制一个AppleID下,苹果所有生态设备的一个智能管家(类似于Javis),进而带来一种全新的人机交互形式。

只是,让Siri重获新生,可能并没有预期的,把大语言模型融合进Siri原本的算法那般简单。

把Siri变成类ChatGPT,由于二者的处理方式完全不同,几乎需要重构Siri整个数据库,无异于推到再来,重新构建,可能需要重组团队,以及耗费不少资源来重新与硬件系统对接。

▲由TPUv4组成的Google机器学习中心图片来自:Google

另外,我们之前也报道过,AIGC每次询问生成,都要耗费不少的云算力。

目前OpenAI的ChatGPT几乎吃掉了微软Azure云计算中心的算力资源,甚至还有些吃紧。

苹果的云计算中心规模不大,在全球的规模远不及微软、甲骨文这些对外提供云服务业务的传统大公司。苹果云服务多是自我满足,为自己的iCloud、AppStore等业务提供支持。

倘若把AIGC一股脑的引入到iPhone、iPad、Mac当中,苹果所需要的算力将会是个天文数字。

即便苹果有算力支持,按照此前的推算,GPT-4每千个提示词的成本高达12美分,加上苹果全球仅iPhone用户就突破十亿,运行的成本极其高昂。

不论是从客观条件,还是苹果主观意愿上,苹果很难直接将类ChatGPT技术引入到Siri,并直接部署到生态当中。

苹果仍需要找一个合适的时机和切入点,这个时机可能是生成式AI的成本大降,或者说是从一个小功能入手,利用AIGC提升用户的体验。

而从苹果一贯对AI的态度来看,后者更可能是苹果的最终做法。

对于AI,苹果看重的是「效率」和「隐私」

除了时机,还有两个公司战略和策略上的不同,让苹果与生成式AI保持着冷静。

▲JohnGiannandrea图片来自:TechCrunch

2020年,苹果机器学习和人工智能战略高级副总裁JohnGiannandrea以及产品营销副总裁BobBorchers在Arstechnica关于苹果AI相关业务的采访里,他们都坚定的表达了苹果AI战略的两个要点。

一是效率,二是隐私。

效率指的是,在本地执行的机器学习算法和模型,响应更快,与性能更好。

隐私顾名思义就是隐私保护。

在这篇接近万字的采访当中,这两个关键策略,被JohnGiannandrea反复的提及,可见苹果对于AI技术有着几乎偏执而严苛的追求。

现在回头看,苹果这两个坚持,也促使苹果在造芯事业上,会把A系列、M系列AppleNeuralEngine的优先级提到CPU、GPU之前,已经成为每代芯片着重升级的核心。

有意思的是,每代苹果A系列、M系列芯片发布时,苹果会公布CPU、GPU、统一内存等一系列相关规格和架构信息。

但唯独到了NeuralEngine这里,只有一个笼统的数据,更像是一个黑盒子,仿佛神经引擎才是所有芯片里最大的秘密。

另外,这两位高管也认为苹果自iPhoneX起,芯片里就包括的神经引擎,是实现本地机内处理AI算法的一个先决条件。

为此,苹果将许多机器学习的算法尽可能缩小规模,以便部署到本地。甚至也强调,把算法模型做小,才是真本事。

部署到本地,可以能够快速的本地调用模型算法,响应无延迟。另外就是不需要上传用户数据,规避了「隐私」问题。

像是跟踪ApplePencil笔触、图像识别等AI参与的功能当中,由于算法模型训练的足够好,不需要上传云,进行协助运算,本地就能处理完成。

而类似于ChatGPT生成式AI,完全依赖于网络,即便推出了好几个月,服务仍然不够稳定,时不时的会出错。

这对苹果这种追求用户体验的公司来说,不允许有如此不稳定的状况发生。

隐私保护,已经是苹果近年以来的一则战略,尽管面对非议,并会减少相关收益,苹果依旧在iOS14.5上推出了苹果应用追踪透明度框架(App反追踪,AppTrackingTransparency,简称ATT),站在了用户这边。

苹果的一些AI模型算法不需要联网,而有些则需要收集部分数据进行训练(像是Siri),为此苹果会事先声明,并在收集过程中去除敏感信息(像是AppleID等)。

当下流行的生成式AI则与苹果谨慎的态度有些不同,他们几乎是抓取了许多互联网内容进行算法参数训练,并以此为基础生成。

而当他们推出相关产品,像是微软Copilot、Midjourney、StabilityAI,也受到了许多网站和机构的侵权法律诉讼,声称这些公司非法刮取优版权的内容进行创作,有违版权法。

▲Midjourney生成的蒙娜丽莎

虽然对于版权的争论还未有结果,但如此有非议的训练过程,其实有违于苹果对数据隐私保护的一大追求。

AIGC目前无法部署到本地,并且联网很难保证比较完美的提供服务,另外存在着数据隐私问题。

AIGC的主流技术几乎与苹果在AI追求上背道而驰,也解释了苹果没有及时切入,和对生成式AI发表相应的产品或者声明。

对于AI,我们认知的可能是Siri,但对于苹果本身来说,其实是NeuralEngine成为A系列芯片独立模块开始,苹果就把精力着重在本地化AI上,目的也很纯粹,没有想用AI改变世界,就是为了提升用户体验。

苹果并非是一个纯粹的AI公司,云数据中心仅为自己软件业务,造芯也是为了硬件,苹果技术行业的扩展都是为了产品服务,说到底他就是一家产品驱动的公司。

其战略、策略、技术布局等等都是围绕着核心产品服务。像是接下来推出的XR设备,苹果正在拓展视觉识别上的AI团队,并没有去追逐硅谷的热点。

苹果很明确自己的优劣势,没有一味的被别人牵着鼻子走,而是以一种很稳定的发展策略去布局。

另外,苹果总会在新技术新趋势下,观察许久,以自己独特的视角去切入,对于生成式AI,苹果或许也会以一种我们都没有预想的方向发展,并让我们眼界大开。

苹果不炒作人工智能他们只是没做大模型

牢据市场一隅,苹果更喜欢“精确”

面对各种质疑的声音,苹果CEO库克表示,苹果本质上还是硬件厂商,公司并没有谷歌或微软那样的通过升级软件提高生产力的压力。

在WWDC2023中,苹果还推出了iOS17系统,为用户提供了一系列的新功能和改进,包括电话和FaceTime的个性化和互动功能、全新的日记应用、新的待机模式、新的动态小工具、CarKey数字汽车钥匙功能的增强,以及ARKitAPI框架的改进等。

依靠简单、优质、个性化的产品和服务,苹果赢得了大批的赞誉和忠诚度。在移动市场中,凭借其占有率和封闭且高效的iOS生态系统的优势吸引了更多的用户。同时,苹果不断创新和拓展产品线,打造了Mac、iPad、AppleWatch、AirPods、AppleTV等一列自生态产品。

简言之,苹果强大的品牌号召力与生态影响力,使其消费电子类产品(除开奢侈品品牌)在定价方面堪称同类“天花板”,却仍然在销量上牢牢占据市场一隅。强大的产品优势是苹果的独具一格底气,但强大的开发者号召力也是其AppStore经久不衰为苹果源源不断贡献收入的因素之一,这意味着,在开发者对于人工智能需求不断增长的今天,苹果所持有谨慎的态度,并不代表其不正视这项技术的未来发展与前景。

“曲线救国”服务硬件,苹果只是没做大模型

作为硬件厂商,苹果拥有自己的芯片、服务、系统等产品,这些产品所构成的完整生态也为苹果在人工智能领域提供了强大的基础设施和平台,可以在硬件和软件之间实现高效的协同和优化,提升用户体验和性能,也可以更好地保护用户隐私。

即将更新的iOS17也使用了Transformer语言模型,能够根据用户语义与语言习惯进行输入单词的预测,并使得自动纠错更加准确;在语音识别方面,iOS17利用神经引擎使语音识别更加准确。

值得注意的是,目前人工智能领域的数据与隐私泄露风险以及人工智能监管问题已经成为全世界要共同面对的问题。国内外都出台了一系列的政策法规来维护人工智能发展,甚至ChatGPT之父山姆·奥特曼也在听证会上向政府申请对OpenAI实施监管。

Unity中国AI技术负责人暴林超先生对大模型之家表示:人工智能对于数据是饥渴的,目前数据和隐私安全等问题已经在一定程度延缓了人工智能的发展,这就需要企业密切关注数据调用问题,在确保不侵犯用户隐私的基础上寻求途径推动人工智能的进步。

而苹果对用户隐私和数据安全的重视在行业里也是家喻户晓,甚至将其隐私保护功能作为产品的重要卖点。苹果采用了多种技术手段,如加密、生物识别、差分隐私等,来保护用户数据不被泄露或滥用。同时,这将使苹果的人工智能业务能够更加合规地接触并使用用户数据,进行更有精确的服务用户,并且大幅度提升人工智能的响应速度和可靠性。

VisionPro上演堆料艺术

在即将面世的VisionPro产品展示中不难发现,虽然苹果对“人工智能”只字未提,但似乎所有的新动作都围绕着“人工智能”展开。

VisionPro也使用了基于Transformer的语音识别模型让语音识别更加准确。并且可以有效地处理自然语言的序列数据。作为基于自注意力机制的深度学习模型,它还可以进行自动纠错和词预测,提高了语音识别的准确性。

同时,VisionPro还依靠视觉生成建模,通过前置摄像头扫描人的面部信息,再基于机器学习技术,系统会使用先进的编码神经网络,为用户生成一个“数字分身”。利用先进的机器学习模型,根据对用户的眼球追踪和瞳孔状态,来预测用户的身体和大脑状态,比如是否对当前事物好奇,是否走神,注意力是否被分散等等。

这些数据可以帮助VisionPro提供更个性化和智能的体验,比如根据用户的注意力、放松程度或学习情况来更新虚拟环境,或者根据用户的眼睛注视方向来创建生物反馈。

还有VisionPro配备的卷积神经网络,通过卷积层、激活层、池化层和全连接层来实现高效和准确的图像识别和对象检测功能,为用户提供了丰富和逼真的混合现实体,在自动驾驶、安防监控、医学图像分析等领域都发挥着重要作用。

值得一提的是,Visionpro也是市面上唯一一款完全不需要装配手柄就能实现控制的MR头显。因此,想通过动态捕捉、动态分析、眼部追踪等技术实现人机交互便对VisionPro的运算处理能力提出了极高的要求。

VisionPro内置M2和R1两款芯片,M2芯片负责运行操作系统和应用程序,而R1芯片负责定位、协同、视觉图像处理或传输等功能。

R1芯片是苹果专门为VisionPro设计的新芯片,专门用于处理传感器数据和空间计算,能够在12毫秒内将新图像流式传输到显示器,比眨眼快8倍,这对于提供与现实同步的沉浸式混合现实体验至关重要。可以说,为实现机器学习满足用户的需求,R1芯片就是人工智能时代苹果向世界交出的“答卷”。

对于苹果来说,或许“Machinelearning”这个词更精确的描述苹果的技术特点。但通过VisionPro、iOS17以及纵观整个苹果生态不难看出,苹果并不希望模糊地定义人工智能,他们热衷于用技术改造或扩展自己的产品品类,打造自己的品牌,而不是使用行业通用的词汇。

诚然,相比ChatGPT这样的人工智能大模型而言,苹果在人工智能领域的积累,并不能让其拥有如同iPhone那样“改变世界”的能力,但是苹果用VisionPro这款产品,试图去教育世界AI如何与空间计算的场景结合,发挥出“1+1>2”的效果。更用另一种XR的实现形式(此前一种为微软的HoloLens),打开了行业迈向“空间计算时代”的大门。

与微软和谷歌等公司相比,苹果对人工智能技术的开放性较低,但依靠庞大市场需求支持,苹果更希望维护好产品带给用户的优质体验,无论是“机器学习”还是“人工智能”其核心要义还是能为用户带来什么。大模型之家认为,无论是硬件软件用户在使用的时候只在意产品能否更完美的匹配自己的需求,多高的算力和多大的数据参数最终为产品打分的只能是消费者的满意程度,相信人工智能发展的最终形态会向着平民化、日常化的方向前进。返回搜狐,查看更多

苹果智能拨号软件

泡泡网手机频道5月11日通话作为一款手机的最基本功能想必是每个人每天最常用的功能,这次我就为大家推荐一款名为“智能通话”的应用,让你的iPhone真正“智能”起来。

推荐软件:

智能电话

iPhone版售价:$1.99

第一次使用智能电话的朋友很难发现其与iPhone本身通话功能有什么本质区别,而其“智能”的本质也需要接下来的设置进行铺垫。

估计大家发现的最显著区别在于拨号界面颜色及风格的改变,智能通话这款应用提供有4种风格鲜明的拨号界面主题可供用户选择,其中的粉色界面非常可爱,相信每位女性用户都难以抗拒。

软件“智能”的第一步就是为广大iPhone用户提供了快捷键拨号(短信功能),用户可以按照需求自行设置9个常用联系人进行一键拨号(短信),相信这是广大iPhone用户都非常需要的功能。

更直接的显示效果弥补了iPhone本身的特殊联系人收藏功能,更为实用且丰富的功能都可以在智能通话软件下轻松找到。

在实用功能方面,智能拨号软件提供给用户最方便的IP电话默认前置服务,让你在畅聊的同时更能节省话费。

软件在各个功能使用时不论是UI界面美观性,还是操控的体验感都非常不错,悬浮式的弹出设计也非常时尚。

智能拨号中提供的个性化拨号服务非常细致入微,这里我就不一一为大家介绍了,感兴趣的朋友可以在首次进入软件时通过帮助菜单进行仔细的了解,相信你会发现很多实用的功能点。

智能拨号看似非常简单,但就是如此简单的小功能改进足以让你的iPhone变得更加智能,如果愿意的话你完全可以用它替换掉手机原生的拨号功能。(虽然没有电话本功能,但多种多样的搜索方式相信会比你通过电话本找人要方便的多)。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇