苹果12怎么关机 iPhone12关机方法汇总
苹果iPhone12手机采用的是全面屏的设计,与以往带有Home键的iPhone有很多操作方法不一样,其中就包括关机和开机的操作方法,这里我们来看下iPhone12要怎么关机。
1、iPhone12的电源键和“+”音量键同时长按几秒,就会弹出提示信息,可以看到关机的选项,在屏幕上滑动就可以关机
2、电源键和“-”音量键同时长按几秒,也会出现提示信息,选择关机选项即可
3、进入到手机的【设置】-【通用】-【关机】,也可以将手机关机
4、呼叫Siri语音助手,对它说【关机】,这时候手机的界面就会显示出关机方法,点击即可将手机关机
5、强制关机重启方法:
1)快速按一下iPhone12手机左侧的【音量+】按键,然后迅速放开;
2)再迅速按一下iPhone12手机左侧的【音量-】按键,迅速放开;
3)最后,持续地按住iPhone12手机右侧的【关机键】,直到手机屏幕上出现苹果Logo之后,在把手松开,即可重启iPhone12手机。
Anker安克苹果快充NanoPD20W充电器18W充电头iPhone12/11pro/SE2/Xs/XR/8小米/iPad/Type-C数据线插头京东自营¥77.9(举报)
绝口不提AI,但苹果已经成为一家人工智能公司
【编者按】在本月的苹果开发者大会上,苹果公司没有提到一个热词——人工智能(AI),而是以机器学习等技术语言替代。但在其推出的多项更新中,却处处隐藏着AI功能,比如自动拼写更正升级、耳机自适应音量调整、图片编辑功能优化。
《大西洋月刊》科技作者卡罗琳·米姆斯·奈斯(CarolineMimbsNyce)认为,尽管苹果避谈人工智能,但苹果实际上已经成为一家人工智能公司,因为许多实现人工智能的微小功能调整正在悄然进入iPhone。澎湃科技(www.thepaper.cn)编译整理了奈斯6月20日发表的这篇文章。
在经历这十多年的发展后,自动更正功能出现“失误”的情况可能会逐渐消失。苹果饱受诟病的拼写软件正在通过人工智能进行升级:利用复杂的语言模型,新的自动更正不只是对照字典检查单词,还能根据单词在句子里的语境进行判断。从理论上讲,它不会把用户想要输入的consolation(安慰)误解为consolidation(巩固),因为它知道这些词不是可以互换的。
下一代自动更正功能,是苹果本月早些时候宣布的iPhone体验的小更新之一。此外,照片应用可以分辨你的狗和别人的狗,像识别照片里常见的人物一样,自动认出你的宠物;而AirPods也会根据聆听情况更智能地调节背景噪音。
苹果的新人工智能功能也许只是“主菜之前的开胃菜”。
这些功能都是由人工智能支持的——虽然你可能不会从苹果的演示中了解到这一点。苹果在宣布这些更新的会议上并没有提到“人工智能”这个词,尽管这个词已经成为目前各个科技公司的流行词。相反,苹果使用了更多技术语言,如机器学习或Transformer语言模型(编者注:谷歌开发的一种深度学习模型,OpenAI在此基础上开发了GPT)。苹果对这项技术一直保持沉默——沉默到被认为落后于其他科技公司。确实,ChatGPT可以写出半成品的商业建议,而Siri只能给你设定早上的闹钟,其他什么也做不了。但苹果还是在小范围内推进人工智能,这种逐步推进的方式或许也是这项技术未来的趋势。
自去年秋季ChatGPT推出以来,科技巨头们都毫不避讳地谈及人工智能——无论它带来的影响是好是坏。OpenAI的首席执行官山姆·奥特曼(SamAltman)上个月在推特上说,人工智能“是目前为止最了不起的工具”。微软创始人比尔·盖茨(BillGates)称人工智能是“自图形用户界面以来最重要的技术进步”。而在谷歌的一次会议上,Alphabet(编者注:谷歌母公司)首席执行官桑达尔·皮查伊(SundarPichai)在15分钟的演讲中提到了27次“人工智能”。(他还曾说过,人工智能将比人类学会用火的意义更“深刻”。)
另一方面,苹果公司在谈到人工智能时甚至都没有假装说大话。科技博客DaringFireball的创始人、资深苹果公司观察者约翰·格鲁伯(JohnGruber)告诉我,他不指望苹果今年宣布的任何机器学习功能会大大改变iPhone的用户体验。它们只是在名义上让它变得更好。“我们只希望自动更正这一功能能够顺利运行就够了。”他在邮件中说,“我们只有在它出错的时候才会注意到它。”
新的自动更正功能将在今年晚些时候的iOS升级中提供,它可能像是你口袋中的一个弱化版ChatGPT。苹果表示,这个软件能够更好地根据我们的输入方式进行自我调整,并预测我们下一步会用到的单词和短语。当你向ChatGPT提问时,你其实是在访问存储在云上的、大家都能用到的同一个庞大的语言模型。但是,现在支持自动更正的、更小更定制化的语言模型将储存在你的iPhone里。斯坦福大学计算机科学家TatsunoriHashimoto表示,苹果并未透露在这里使用的具体技术细节。TatsunoriHashimoto与其研究团队致力于探索研究如何缩小大型语言模型,并将其部署到移动设备中。
另外,AirPods现在会使用“自适应音频”来分析用户周围的声音并做出相应的调节。比如,当你在咖啡店开始与咖啡师聊天时,你的AirPods可能会自动把音乐声调小,当你聊完时,它们又会把音量调大。苹果表示,它会利用机器学习来理解用户的音量喜好,并改善其听觉体验。
这是典型的苹果风格,“专注于一项功能能做什么,而不是怎么做到的。”格鲁伯表示,“用户更在意使用这项功能背后的人工智能技术,而不是产品是用什么编程语言来开发的。”同时,他也认为,新功能强调了用户隐私,这是苹果一直重视或者至少声称重视的。由于该公司使用的是一个“设备内”的模型,这可能比ChatGPT这样巨型的、基于云的模型带来的隐私风险更小。“从某种意义上说,它是私密的,因为用户数据不会离开他们的手机,而针对用户进行微调的模型也不会离开他们的手机。”斯坦福商学院的人工智能专家穆森·巴亚蒂(MohsenBayati)表示。
苹果与其他科技公司在人工智能上的差异,可以用它们各自的商业模式来解释。科技巨头们盈利的方式并不相同,谷歌和Meta占据了大约一半的数字广告市场,而由人工智能驱动的聊天机器人可能成为另一种吸引我们消费的途径。微软的广告业务较少,但它希望将聊天机器人功能添加到搜索中来对抗谷歌。亚马逊巨大的云服务业务也会从大型语言模型的应用中获益(它们总得有地方住!)。苹果是一个高端品牌,更深层次的业务是让你的电脑和手机使用起来更愉快。“因此,苹果以一种产品导向的方式谨慎地接触人工智能,并不令人惊讶。”格鲁伯说。
然而,iPhone可能是很多人首次接触人工智能新进展的地方,部分原因是聊天机器人在我们日常生活中将如何呈现仍然不确定。ChatGPT一经推出就大受欢迎,在两个月内吸引了1亿用户,但不清楚有多少人仍然在定期使用它(当被问及目前的月平均用户数时,OpenAI的一名发言人不愿透露具体数字)。许多公司也在增加自己的聊天机器人功能——Instacart(编者注:美国外卖应用)现在使用人工智能来提供食谱,而Salesforce(编者注:一家提供客户关系管理解决方案的公司)最近推出了“EinsteinGPT”。但聊天机器人仍有很大局限性。它们经常编造事实,有偏见,而且是版权的噩梦。
小小的技术不便很容易引起人们的不满,但“不,自动更正,我说的不是ducking”(编者注:funking会在自动更正中被改为ducking)成为一个网络梗是有原因的。更好的自动更正会在数十亿部手机、平板电脑和计算机中产生作用:现在美国大部分智能手机都是iPhone,而苹果在全球有超过20亿台活跃设备。其他科技巨头也在利用人工智能对现有产品做小规模升级。谷歌最近推出了一个通过聊天机器人草拟Gmail回复的功能。像人类一样的聊天机器人接管一切的情景并不是人工智能改变世界的唯一方式。在我们眼皮底下的许多微小的调整都可以成为一件大事。从某种意义上说,它们已经做到了——多年来,机器学习为我们提供了个性化广告,过滤了我们的社交媒体信息,并帮助我们确定搜索结果。
与硅谷的其他公司一样,苹果可能很快会做出更进一步的尝试。WedbushSecurities(编者注:美国金融服务公司)的技术分析师丹尼尔·艾夫斯(DanielIves)认为,苹果的新人工智能功能只是“主菜之前的开胃菜”。他的团队估计,该公司在过去四五年里在人工智能领域花费了80亿到100亿美元——这和微软今年1月对OpenAI投资的金额相同,而且据报道,苹果正在招聘人工智能领域的人才。
所以,“HeySiri,也许你时日不多了。”
苹果的人工智能应用,跟ChatGPT不太一样
苹果的XR混合现实设备,其中一个主要的功能便是围绕着健身Fitness+服务展开。
它会借助虚拟空间,让你在任何地点沉浸在「健身房」当中,当然,还少不了一个虚拟教练。
此前,我们只认为这位「虚拟教练」可能只提供标准的动作示范,但在苹果的计划里,「他」可能还会被赋予更多的「智慧」。
据悉,苹果为了扩展AppleWatch的健康宇宙,苹果拟将人工智能引入到健康功能当中。
推出一个AI健康教练,借助于AppleWatch所记录的数据,借助于算法,来制定用户的锻炼计划,改善饮食习惯和睡眠质量,以保持或者改善健康状态。
这应该是近期,AI与苹果走得最近的一则消息,但苹果的AI健康教练与当下热门的生成式AI,例如ChatGPT、bing、Bard却有着明显的不同。
「AI健康教练」更像是一个功能,而非是类似于ChatGPT这种引发全新赛道的趋势。
苹果一直没有切入到硅谷抢做生成式AI的热潮里,反而仿佛画地为牢,不参与竞争,显得颇有些不同。
Siri不是人工智能,苹果的人工智能藏在细枝末节
十二年前,苹果首次向公众展示了Siri,并随着iPhone4s一同推向市场。
后续,Siri被扩展到Mac、iPad、HomePod、AppleWatch甚至是AirPods等所有的苹果智能设备里。
Siri生来高光,被定义为「智能语音助手」,它可以通过语音识别和自然语言处理回答用户的问题,控制设备和执行任务。
也引领了智能手机标配语音助手的潮流,三星的Bixby、小米的小爱同学、OPPO的小欧等等。
同样,Siri也被大众所熟知,认为它就是人工智能的一个雏形。
只是,十二年的进化过程中,苹果很少对其进行深度升级,多是围绕着功能点补全。
如今,它依然保持着2011年的那般纯真,当遇到难题时,也同样会坦诚的回答道「我不是很清楚,这是我在互联网上找到的答案」。
在2023年生成式AI满天飞的今天,Siri的「纯真」与能说会道的ChatGPT形成了鲜明的对比。
仿佛,苹果并不想发展人工智能,只想卖手机和电脑,但事实真的如此?
其实Siri并不应该称之为人工智能,Siri只是个答案数据库类型的语音助手。
当用户唤起它,并发出一连串指令,它的数据模型会优先在本体处理,快速查看是否是一个简单的本地请求(像是调整音量、设定闹钟等),利用已知的信息迅速完成。
否则,再去云端查询更大的数据库,给你一个答案,或者没有查询到,就甩出一个网页搜索(大概率的情况)。
而ChatGPT并没有先本地再云端的流程,根据问题直接访问微软的Azure云计算中心,利用庞大的算力和相应模型进行推算,无论理解与否,都会「生成出」回答。
从这里来看,Siri和ChatGPT展示了两个倾向,苹果倾向于将技术部署在本地,优先调用本地算力解决。而ChatGPT则完全依靠于网络,以及数据中心的庞大算力。
苹果的AI也是如此,它藏在苹果产品许许多多的功能里,属于那种没人会留意,但却大幅改善了用户体验。
像是你按下快门,iPhone会一连拍下多张照片,再根据相应的模型算法,利用图像识别挑选一张效果最好的作为最终成像。
又或者,ApplePencil在iPad上书写时,能够媲美真实的纸笔体验。里面就用到了笔触追踪与手掌识别,在保证笔触实时响应的同时,也不会因为手掌接触屏幕而误触。
以及,FaceID安全性与效率的兼顾,它能够适应用户面容的变化,不会因为眼镜、胡须遮挡而影响识别效率。
甚至在当下的iOS当中,也支持口罩解锁,仅用半张脸就完成了与之前相同的安全等级。
从这些功能到苹果多设备、平台的协同、互联等特性,方方面面都有苹果的NeuralEngine(神经引擎)参与,也是苹果AI所呈现的方式。
与生成式AI不同,苹果AI注重的是,如何提升终端用户的体验。
Siri有没有可能变成类ChatGPT?
ChatGPT推出后不久,接入官方API的网页版套壳App也层出不穷,但真正能够嵌入系统,或者还未能落实到终端的应用、交互。
这也是此前认为ChatGPT、新bing等生成式AI还停留在古早的对话框交互当中。
真正的人机交互,或者说终端服务还未酝酿出来。
OpenAICEOSamAltman在麻省理工的演讲里曾表示,「大型模型时代已经到头了,我们需要用新的思路和方法,让AIGC取得新的进展。」
在揭示AIGC行业发展趋势的同时,也暗示新入局的科技公司,「你们已经落伍了」。
这对于错过AIGC第一波浪潮的苹果来说,其实也是一个契机,没必要再利用资源去训练自己的语言模型,而应当考虑,如何把生成式AI嵌入到自己的生态当中。
不重复造轮子,不如考虑造一辆车。
而「年久失修」的Siri,能否把大语言模型嫁接到Siri上,让他变成一个SmartSiri,让其成为能够控制一个AppleID下,苹果所有生态设备的一个智能管家(类似于Javis),进而带来一种全新的人机交互形式。只是,让Siri重获新生,可能并没有预期的,把大语言模型融合进Siri原本的算法那般简单。
把Siri变成类ChatGPT,由于二者的处理方式完全不同,几乎需要重构Siri整个数据库,无异于推到再来,重新构建,可能需要重组团队,以及耗费不少资源来重新与硬件系统对接。
另外,我们之前也报道过,AIGC每次询问生成,都要耗费不少的云算力。
目前OpenAI的ChatGPT几乎吃掉了微软Azure云计算中心的算力资源,甚至还有些吃紧。
苹果的云计算中心规模不大,在全球的规模远不及微软、甲骨文这些对外提供云服务业务的传统大公司。苹果云服务多是自我满足,为自己的iCloud、AppStore等业务提供支持。
倘若把AIGC一股脑的引入到iPhone、iPad、Mac当中,苹果所需要的算力将会是个天文数字。
即便苹果有算力支持,按照此前的推算,GPT-4每千个提示词的成本高达12美分,加上苹果全球仅iPhone用户就突破十亿,运行的成本极其高昂。
不论是从客观条件,还是苹果主观意愿上,苹果很难直接将类ChatGPT技术引入到Siri,并直接部署到生态当中。
苹果仍需要找一个合适的时机和切入点,这个时机可能是生成式AI的成本大降,或者说是从一个小功能入手,利用AIGC提升用户的体验。
而从苹果一贯对AI的态度来看,后者更可能是苹果的最终做法。
对于AI,苹果看重的是「效率」和「隐私」
除了时机,还有两个公司战略和策略上的不同,让苹果与生成式AI保持着冷静。
2020年,苹果机器学习和人工智能战略高级副总裁JohnGiannandrea以及产品营销副总裁BobBorchers在Arstechnica关于苹果AI相关业务的采访里,他们都坚定的表达了苹果AI战略的两个要点。
一是效率,二是隐私。
效率指的是,在本地执行的机器学习算法和模型,响应更快,与性能更好。
隐私顾名思义就是隐私保护。
在这篇接近万字的采访当中,这两个关键策略,被JohnGiannandrea反复的提及,可见苹果对于AI技术有着几乎偏执而严苛的追求。
现在回头看,苹果这两个坚持,也促使苹果在造芯事业上,会把A系列、M系列AppleNeuralEngine的优先级提到CPU、GPU之前,已经成为每代芯片着重升级的核心。
有意思的是,每代苹果A系列、M系列芯片发布时,苹果会公布CPU、GPU、统一内存等一系列相关规格和架构信息。
但唯独到了NeuralEngine这里,只有一个笼统的数据,更像是一个黑盒子,仿佛神经引擎才是所有芯片里最大的秘密。
另外,这两位高管也认为苹果自iPhoneX起,芯片里就包括的神经引擎,是实现本地机内处理AI算法的一个先决条件。
为此,苹果将许多机器学习的算法尽可能缩小规模,以便部署到本地。甚至也强调,把算法模型做小,才是真本事。
部署到本地,可以能够快速的本地调用模型算法,响应无延迟。另外就是不需要上传用户数据,规避了「隐私」问题。
像是跟踪ApplePencil笔触、图像识别等AI参与的功能当中,由于算法模型训练的足够好,不需要上传云,进行协助运算,本地就能处理完成。
而类似于ChatGPT生成式AI,完全依赖于网络,即便推出了好几个月,服务仍然不够稳定,时不时的会出错。
这对苹果这种追求用户体验的公司来说,不允许有如此不稳定的状况发生。
隐私保护,已经是苹果近年以来的一则战略,尽管面对非议,并会减少相关收益,苹果依旧在iOS14.5上推出了苹果应用追踪透明度框架(App反追踪,AppTrackingTransparency,简称ATT),站在了用户这边。
苹果的一些AI模型算法不需要联网,而有些则需要收集部分数据进行训练(像是Siri),为此苹果会事先声明,并在收集过程中去除敏感信息(像是AppleID等)。
当下流行的生成式AI则与苹果谨慎的态度有些不同,他们几乎是抓取了许多互联网内容进行算法参数训练,并以此为基础生成。
而当他们推出相关产品,像是微软Copilot、Midjourney、StabilityAI,也受到了许多网站和机构的侵权法律诉讼,声称这些公司非法刮取优版权的内容进行创作,有违版权法。
虽然对于版权的争论还未有结果,但如此有非议的训练过程,其实有违于苹果对数据隐私保护的一大追求。
AIGC目前无法部署到本地,并且联网很难保证比较完美的提供服务,另外存在着数据隐私问题。
AIGC的主流技术几乎与苹果在AI追求上背道而驰,也解释了苹果没有及时切入,和对生成式AI发表相应的产品或者声明。
对于AI,我们认知的可能是Siri,但对于苹果本身来说,其实是NeuralEngine成为A系列芯片独立模块开始,苹果就把精力着重在本地化AI上,目的也很纯粹,没有想用AI改变世界,就是为了提升用户体验。
苹果并非是一个纯粹的AI公司,云数据中心仅为自己软件业务,造芯也是为了硬件,苹果技术行业的扩展都是为了产品服务,说到底他就是一家产品驱动的公司。
其战略、策略、技术布局等等都是围绕着核心产品服务。像是接下来推出的XR设备,苹果正在拓展视觉识别上的AI团队,并没有去追逐硅谷的热点。
苹果很明确自己的优劣势,没有一味的被别人牵着鼻子走,而是以一种很稳定的发展策略去布局。
另外,苹果总会在新技术新趋势下,观察许久,以自己独特的视角去切入,对于生成式AI,苹果或许也会以一种我们都没有预想的方向发展,并让我们眼界大开。