博舍

苹果的人工智能应用,跟ChatGPT不太一样 苹果的人工智能怎么打开手机屏幕

苹果的人工智能应用,跟ChatGPT不太一样

苹果的XR混合现实设备,其中一个主要的功能便是围绕着健身Fitness+服务展开。

它会借助虚拟空间,让你在任何地点沉浸在「健身房」当中,当然,还少不了一个虚拟教练。

此前,我们只认为这位「虚拟教练」可能只提供标准的动作示范,但在苹果的计划里,「他」可能还会被赋予更多的「智慧」。

据悉,苹果为了扩展AppleWatch的健康宇宙,苹果拟将人工智能引入到健康功能当中。

推出一个AI健康教练,借助于AppleWatch所记录的数据,借助于算法,来制定用户的锻炼计划,改善饮食习惯和睡眠质量,以保持或者改善健康状态。

这应该是近期,AI与苹果走得最近的一则消息,但苹果的AI健康教练与当下热门的生成式AI,例如ChatGPT、bing、Bard却有着明显的不同。

「AI健康教练」更像是一个功能,而非是类似于ChatGPT这种引发全新赛道的趋势。

苹果一直没有切入到硅谷抢做生成式AI的热潮里,反而仿佛画地为牢,不参与竞争,显得颇有些不同。

Siri不是人工智能,苹果的人工智能藏在细枝末节

十二年前,苹果首次向公众展示了Siri,并随着iPhone4s一同推向市场。

后续,Siri被扩展到Mac、iPad、HomePod、AppleWatch甚至是AirPods等所有的苹果智能设备里。

Siri生来高光,被定义为「智能语音助手」,它可以通过语音识别和自然语言处理回答用户的问题,控制设备和执行任务。

也引领了智能手机标配语音助手的潮流,三星的Bixby、小米的小爱同学、OPPO的小欧等等。

同样,Siri也被大众所熟知,认为它就是人工智能的一个雏形。

只是,十二年的进化过程中,苹果很少对其进行深度升级,多是围绕着功能点补全。

如今,它依然保持着2011年的那般纯真,当遇到难题时,也同样会坦诚的回答道「我不是很清楚,这是我在互联网上找到的答案」。

在2023年生成式AI满天飞的今天,Siri的「纯真」与能说会道的ChatGPT形成了鲜明的对比。

仿佛,苹果并不想发展人工智能,只想卖手机和电脑,但事实真的如此?

其实Siri并不应该称之为人工智能,Siri只是个答案数据库类型的语音助手。

当用户唤起它,并发出一连串指令,它的数据模型会优先在本体处理,快速查看是否是一个简单的本地请求(像是调整音量、设定闹钟等),利用已知的信息迅速完成。

否则,再去云端查询更大的数据库,给你一个答案,或者没有查询到,就甩出一个网页搜索(大概率的情况)。

而ChatGPT并没有先本地再云端的流程,根据问题直接访问微软的Azure云计算中心,利用庞大的算力和相应模型进行推算,无论理解与否,都会「生成出」回答。

从这里来看,Siri和ChatGPT展示了两个倾向,苹果倾向于将技术部署在本地,优先调用本地算力解决。而ChatGPT则完全依靠于网络,以及数据中心的庞大算力。

苹果的AI也是如此,它藏在苹果产品许许多多的功能里,属于那种没人会留意,但却大幅改善了用户体验。

像是你按下快门,iPhone会一连拍下多张照片,再根据相应的模型算法,利用图像识别挑选一张效果最好的作为最终成像。

又或者,ApplePencil在iPad上书写时,能够媲美真实的纸笔体验。里面就用到了笔触追踪与手掌识别,在保证笔触实时响应的同时,也不会因为手掌接触屏幕而误触。

以及,FaceID安全性与效率的兼顾,它能够适应用户面容的变化,不会因为眼镜、胡须遮挡而影响识别效率。

甚至在当下的iOS当中,也支持口罩解锁,仅用半张脸就完成了与之前相同的安全等级。

从这些功能到苹果多设备、平台的协同、互联等特性,方方面面都有苹果的NeuralEngine(神经引擎)参与,也是苹果AI所呈现的方式。

与生成式AI不同,苹果AI注重的是,如何提升终端用户的体验。

Siri有没有可能变成类ChatGPT?

ChatGPT推出后不久,接入官方API的网页版套壳App也层出不穷,但真正能够嵌入系统,或者还未能落实到终端的应用、交互。

这也是此前认为ChatGPT、新bing等生成式AI还停留在古早的对话框交互当中。

真正的人机交互,或者说终端服务还未酝酿出来。

OpenAICEOSamAltman在麻省理工的演讲里曾表示,「大型模型时代已经到头了,我们需要用新的思路和方法,让AIGC取得新的进展。」

在揭示AIGC行业发展趋势的同时,也暗示新入局的科技公司,「你们已经落伍了」。

这对于错过AIGC第一波浪潮的苹果来说,其实也是一个契机,没必要再利用资源去训练自己的语言模型,而应当考虑,如何把生成式AI嵌入到自己的生态当中。

不重复造轮子,不如考虑造一辆车。

而「年久失修」的Siri,能否把大语言模型嫁接到Siri上,让他变成一个SmartSiri,让其成为能够控制一个AppleID下,苹果所有生态设备的一个智能管家(类似于Javis),进而带来一种全新的人机交互形式。只是,让Siri重获新生,可能并没有预期的,把大语言模型融合进Siri原本的算法那般简单。

把Siri变成类ChatGPT,由于二者的处理方式完全不同,几乎需要重构Siri整个数据库,无异于推到再来,重新构建,可能需要重组团队,以及耗费不少资源来重新与硬件系统对接。

另外,我们之前也报道过,AIGC每次询问生成,都要耗费不少的云算力。

目前OpenAI的ChatGPT几乎吃掉了微软Azure云计算中心的算力资源,甚至还有些吃紧。

苹果的云计算中心规模不大,在全球的规模远不及微软、甲骨文这些对外提供云服务业务的传统大公司。苹果云服务多是自我满足,为自己的iCloud、AppStore等业务提供支持。

倘若把AIGC一股脑的引入到iPhone、iPad、Mac当中,苹果所需要的算力将会是个天文数字。

即便苹果有算力支持,按照此前的推算,GPT-4每千个提示词的成本高达12美分,加上苹果全球仅iPhone用户就突破十亿,运行的成本极其高昂。

不论是从客观条件,还是苹果主观意愿上,苹果很难直接将类ChatGPT技术引入到Siri,并直接部署到生态当中。

苹果仍需要找一个合适的时机和切入点,这个时机可能是生成式AI的成本大降,或者说是从一个小功能入手,利用AIGC提升用户的体验。

而从苹果一贯对AI的态度来看,后者更可能是苹果的最终做法。

对于AI,苹果看重的是「效率」和「隐私」

除了时机,还有两个公司战略和策略上的不同,让苹果与生成式AI保持着冷静。

2020年,苹果机器学习和人工智能战略高级副总裁JohnGiannandrea以及产品营销副总裁BobBorchers在Arstechnica关于苹果AI相关业务的采访里,他们都坚定的表达了苹果AI战略的两个要点。

一是效率,二是隐私。

效率指的是,在本地执行的机器学习算法和模型,响应更快,与性能更好。

隐私顾名思义就是隐私保护。

在这篇接近万字的采访当中,这两个关键策略,被JohnGiannandrea反复的提及,可见苹果对于AI技术有着几乎偏执而严苛的追求。

现在回头看,苹果这两个坚持,也促使苹果在造芯事业上,会把A系列、M系列AppleNeuralEngine的优先级提到CPU、GPU之前,已经成为每代芯片着重升级的核心。

有意思的是,每代苹果A系列、M系列芯片发布时,苹果会公布CPU、GPU、统一内存等一系列相关规格和架构信息。

但唯独到了NeuralEngine这里,只有一个笼统的数据,更像是一个黑盒子,仿佛神经引擎才是所有芯片里最大的秘密。

另外,这两位高管也认为苹果自iPhoneX起,芯片里就包括的神经引擎,是实现本地机内处理AI算法的一个先决条件。

为此,苹果将许多机器学习的算法尽可能缩小规模,以便部署到本地。甚至也强调,把算法模型做小,才是真本事。

部署到本地,可以能够快速的本地调用模型算法,响应无延迟。另外就是不需要上传用户数据,规避了「隐私」问题。

像是跟踪ApplePencil笔触、图像识别等AI参与的功能当中,由于算法模型训练的足够好,不需要上传云,进行协助运算,本地就能处理完成。

而类似于ChatGPT生成式AI,完全依赖于网络,即便推出了好几个月,服务仍然不够稳定,时不时的会出错。

这对苹果这种追求用户体验的公司来说,不允许有如此不稳定的状况发生。

隐私保护,已经是苹果近年以来的一则战略,尽管面对非议,并会减少相关收益,苹果依旧在iOS14.5上推出了苹果应用追踪透明度框架(App反追踪,AppTrackingTransparency,简称ATT),站在了用户这边。

苹果的一些AI模型算法不需要联网,而有些则需要收集部分数据进行训练(像是Siri),为此苹果会事先声明,并在收集过程中去除敏感信息(像是AppleID等)。

当下流行的生成式AI则与苹果谨慎的态度有些不同,他们几乎是抓取了许多互联网内容进行算法参数训练,并以此为基础生成。

而当他们推出相关产品,像是微软Copilot、Midjourney、StabilityAI,也受到了许多网站和机构的侵权法律诉讼,声称这些公司非法刮取优版权的内容进行创作,有违版权法。

虽然对于版权的争论还未有结果,但如此有非议的训练过程,其实有违于苹果对数据隐私保护的一大追求。

AIGC目前无法部署到本地,并且联网很难保证比较完美的提供服务,另外存在着数据隐私问题。

AIGC的主流技术几乎与苹果在AI追求上背道而驰,也解释了苹果没有及时切入,和对生成式AI发表相应的产品或者声明。

对于AI,我们认知的可能是Siri,但对于苹果本身来说,其实是NeuralEngine成为A系列芯片独立模块开始,苹果就把精力着重在本地化AI上,目的也很纯粹,没有想用AI改变世界,就是为了提升用户体验。

苹果并非是一个纯粹的AI公司,云数据中心仅为自己软件业务,造芯也是为了硬件,苹果技术行业的扩展都是为了产品服务,说到底他就是一家产品驱动的公司。

其战略、策略、技术布局等等都是围绕着核心产品服务。像是接下来推出的XR设备,苹果正在拓展视觉识别上的AI团队,并没有去追逐硅谷的热点。

苹果很明确自己的优劣势,没有一味的被别人牵着鼻子走,而是以一种很稳定的发展策略去布局。

另外,苹果总会在新技术新趋势下,观察许久,以自己独特的视角去切入,对于生成式AI,苹果或许也会以一种我们都没有预想的方向发展,并让我们眼界大开。

一文读懂苹果和Google的人工智能理念、布局和预期

在科技及互联网领域,苹果和Google是两家绝对绕不开的话题公司。我曾经不止一次说过,中国科技(自)媒体常年不断地唱衰苹果、意淫Google(Google回归中国)。前者长期以来由神一般的乔布斯掌舵,用一次次的「Onemorething」让整个世界不断尖叫;而后者,则在本世纪的前15年里,不仅改写了互联网和移动互联网的发展轨迹,也正在为不远的将来描绘了一幅「美丽新世界」的愿景。

如今,两家公司正迈入一个新战场:人工智能。本文将从两家公司现有的商业模式和产品线的角度出发,探讨现阶段以及未来可预见的时间内,苹果与Google在人工智能——这个热门词汇背后的理念、布局以及预期。

智能手机时代:苹果与Google的路线之争

如果没有2007年1月份乔布斯拿出iPhone时的惊艳亮相,由智能手机引领的移动互联网又会是个什么模样呢?答案或许有很多,但有一个主角或许不会缺席,这就是Google。

当乔布斯站在MacWorld大会上展示这个重新定义了手机、音乐播放器与互联网设备的时候,时任GoogleAndroid部门负责人的安迪鲁宾正在前往拉斯维加斯的路上。在他看完乔布斯的发布会后,他甚至对车里的一个同事说:「我们可以不必发布自己的手机了。」

苹果用天才般的设计和强大的制造能力让第一台iPhone更像是一个工艺品,而不是一台像他们早期宣扬的「跨时代的计算设备」。第一代iPhone不支持3G网络,没有多任务运行机制,甚至无法复制粘贴文字。对很多人来说,这仅仅是台炫酷的设备,绝不是一台好用的设备。

在Android之父鲁宾看来,iPhone还不够酷,他的梦想是让全球各国不同运营商、不同品牌的手机上运行自己的系统。基于这个理念,Google在2007年建立「Android手机联盟」,将多个运营商和手机厂商拉拢在一起,他们分工很明确,Google负责操作系统,手机商制造手机,运营商负责销售。

过去的七八年时间里,苹果与Google走上了两条不同的发展路径,一个以一部部iPhone征服了世界,另一个则通过Android系统、GoogleMobileService和日益壮大的手机厂商不断抢占智能手机的份额。下面是截止到2016年5、6月的统计数据,Gartner的数据显示Android和iOS瓜分了当下的移动互联网操作系统市场份额,两家的比例大概是7:3:

另一份来自调研公司KantarWorldpanelComTech的数据,在截至今年4月底的前3个月,Android在欧洲五个最大市场(英国、德国、法国、意大利和西班牙)的智能手机销量市场份额为76%,与去年同期的70.2%相比增长5.8个百分点。

操作系统市场份额当然无法完全说明问题。苹果借助iPhone的销量,成为世界上最赚钱的公司之一,有媒体曾将苹果比喻成「数字时代的石油公司」,其市值曾一度接近一万亿美元。

在最新一季苹果13年来最差的财报里,来自iPhone的收入支撑了本财季苹果总收入的半壁江山(季度总收入为424亿美元,iPhone收入超过210亿美元)。苹果的官方数字还显示,自2007年到现在的9年时间,苹果已经累计卖出了10亿台iPhone手机。Google从未透露过在Android上赚取了多少钱,不过根据甲骨文律师在Java侵权诉讼中的估计,Android已经为Google带来310亿美元的收入,利润则高达220亿美元。

无论是技术还是产业趋势来看,智能手机都是「计算」的进化,从人人一台PC演进到人人一部手机甚至多部手机,硅谷风险投资a16z合伙人BenedictEvans曾用76张PPT展示智能手机对于世界的颠覆,下面两幅图展示了智能手机在整个智能设备领域的巨大影响:

人工智能是新一代的人机交互

细心去看,科技的发展史也是人机交互的历史,而人工智能发展的路径同样隶属在人机交互的发展历程里。6月初,「互联网女皇」MaryMeeker的互联网趋势报告中有一副图展示了人机交互的历史:

人工智能的进化是机器越来越聪明的的过程,所谓的「聪明」,体现在人机交互过程中,计算机越来越少地问你问题,比如,现在的计算设备,比如手机已经不会再问:

你想把文件存到哪里?你想整理硬盘吗?你想退出应用吗?为了节省空间你想删哪些照片?

但也有一些新的问题出现:

你想看哪一位朋友的状态更新?要不要看看你在旅行时拍的照片?你想吃什么口味的冰淇淋?

上述问题的变化更像是从简单的「yes/no」的二元回答转向更多元的回答,这背后就是计算的改进。从这个角度出发去观察苹果与Google在人工智能领域的历史、现状与未来,有助于从根本上建构对于苹果、Google以及人工智能现状的新理解。

苹果的「设备智能」

2016年的苹果开发者大会(WWDC)有诸多值得回味的点,从中可以一窥苹果在人工智能方面的思考。长期以来,苹果对于人工智能的定位都是「设备智能」——这是一种将人工智能技术纳入到硬件的处理方式,从最早的Siri到现在的iOS10里的图片自动识别和分类机制,事实上,苹果的识别和分类技术并不差,2015年9月,苹果收购人工智能初创公司Perceptio,该公司可以在无需外部数据库的情况下,基于设备(手机、平板)来进行图像分类。

新iOS10的照片应用可以自动识别人脸、物体,并能够相册里的人物自动分类,新加入的「回忆」,则可以通过对照片的位置信息、人脸照片信息、场景信息等聚集在一起,还支持插入音乐。与此同时,开发者还在iOS10测试版中发现了关于人脸识别功能的其他信息,比如大量关于人脸表情的代码,包括微笑、惊恐、惊喜、哭泣、沉思等等,这意味着iOS10未来很可能支持识别照片里人物的表情信息。

苹果将上述功能加入到一台运行iOS10的iPhone中实属不易,要知道类似的功能在Google与微软那里,都是通过云端数据处理后的返回结果。苹果之所以采用这种方法既有历史原因,也有诸多现实考量。历史上看,乔布斯时代的苹果对人机交互有着异常的坚持,比如iOS曾经异常的简洁性——这也意味着毫无选择性的交互方式。乔布斯也曾表示,如果他来做一款DVD,那么唯一的按钮就是「烧录」,其他都可以舍弃。正是这样对于简洁性的追求,使得苹果的产品线长期以来在功能上的变化都极其克制。

乔帮主已仙逝多年,iOS自iOS7开始在交互上开始复杂,但将人工智能纳入到苹果产品的过程依然十分缓慢,摆在苹果面前的现实问题有两个,其一,苹果的云服务不如Google和微软,至今苹果iCloud的服务还有一部分跑在亚马逊AWS上,这也使得苹果无法像Google微软那样通过云端强大的处理性能来处理照片分类、语音识别等。

其二,苹果长期以来的价值观就是对用户隐私的保护。以虚拟助理来说,Siri早在2011年就已经发布,但比起GoogleNow、微软的Cortana来说,Siri真的很不智能,原因就在于Siri对于用户数据的收集非常少,而另外两家公司的产品则有点「贪得无厌」,尤其是Google,默认的用户协议里,Google可以收集用户几乎所有的为其所用。

尤其是在2015年Google发布颇具里程碑意义的GooglePhoto之后,苹果CEO库克在接受媒体采访时公开表示:

在硅谷,许多知名的成功公司利用用户个人信息建构自己的商业模式。它们收集了关于你的一切信息,并试图利用这些信息来赚钱。我们认为这是错误的行为,而苹果也不希望成为这样的公司。

但另一个现实则是,时下流行的深度学习,迫切需要海量数据的「喂养」,同样在今年WWDC大会上,苹果要重新定义「大数据」,正式启动苹果的「DifferentialPrivacy」,这个概念由微软的C.Dwork提出,其基本含义就是基于统计学原理,在一个群体层面收集数据,而非像FB、Google那样收集个体的数据。由于苹果的iMessage、FaceTime早已部署了端到端的加密技术,因此能够让用户数据以加密的方式上传到苹果的服务器,然后苹果在对于这些群体层的数据进行分析和优化,从而改善用户的体验。

「DifferentialPrivacy」将在今年秋天的苹果各个设备新系统中采用,具体会给iOS、macOS、watchOS带来哪些真正意义的改观还无从知晓,但在另一个重要领域——语音领域,苹果则把一副好牌打成了烂牌。

Siri与人才之痛

作为乔布斯生前收购的最后一家公司,Siri肩负着乔布斯对于未来交互模式的远见思考。正如Meeker在人机交互历史回顾中展示的那样,几百万年前,人类从声音的交互开始,而文字的发明,则让交互从声音转入文本阶段,于是出现了各种与文本打交道的交互工具。即便如此,人类交流中的90%依然还是通过声音来完成,这种更自然也更原始的交互模式在过去半个世纪里并未得到突破性的进展。

自动语音识别(AutomaticSpeechRecognition,简称ASR)是一种机器可识别人类说话单词的能力。很长一段时间里,ASR在准确度上都无法与人类识别相媲美,而在2010年,ASR在识别准确度上迎来一个拐点。

从上图的变化可以看出,2010—2015的五年时间,ASR准确度得到大幅提升,这种变化超过了过去30年到40年的变化。事实上,我们现在已经接近一个时刻:机器对于语音的识别能力即将超过人类。

乔布斯看到了基于声音的交互才是人类天性的体现,而技术进步则帮助人类重新回到了最原始的声音交互时代。Siri在这种情况下成为苹果布局声音交互的重要产品,当时,乔布斯曾被问到收购Siri是否想与Google竞争搜索业务,乔布斯给出的答案很明确:Siri不是搜索产品,他们要做人工智能。

只可惜,乔布斯并未看到搭载Siri的第一部iPhone——iPhone4S的发布仪式。彼时,Siri给世界带来的惊喜随着一次次的恶作剧般的调侃趋于平淡,人们突然发现,Siri几乎没有任何用处。她(他/它)常常答非所问,又经常无故跳出(不小心长按home健)…..另一方面,自乔布斯逝世后,原来的Siri团队核心成员几乎都离开了苹果,包括Siri早期开发者的DagKittlaus和AdamCheyer等人又创立了一家Viv的公司,其产品可以理解为新一代的Siri。

如乔布斯当年所言,语音交互正在成为人工智能最有可能爆发的领域。看看市面上的科技公司们,亚马逊、微软以及Google、Facebook,无一不在这个领域发力。苹果也推出了应对之策。

2015年10月开始收购了英国语音技术初创企业VocalIQ,这家公司一直以可实现机器自我学习著称;其次,苹果在今年开发者大会上进一步开放Siri,开发者可以在iOS应用里直接调用Siri的借口来实现语音识别、搜索的功能,考虑到Siri和搜索已经成为iOS10无处不在的功能模块,未来不排除越来越多开发者在应用里加入Siri;第三,全平台的Siri或许才有价值,下一代macOS即将配置Siri,未来的AppleCar的交互设计中,Siri将担当核心角色。

然而不管是不断优化的设备智能和对Siri的强化训练,苹果在人工智能人才、论文方面也面临诸多挑战。有媒体盘点过2015年苹果的挖人名单:

2015年年初,前苏黎世联邦理工学院自动系统实验室副主管PaulFurgale加入苹果;7月,前意大利经典汽车厂商菲亚特克莱斯勒集团质检总监DougBetts加入苹果。8月,大众前工程师MeganMcClain、特拉斯前工程经理HalOckerse、前高级工程师JamieCarlson加入苹果。9月,芯片制造商Nvidia公司人工智能专家、深度学习软件主管JonathanCohen加入苹果;10月,电动摩托厂商MissionMotors申请破产,旗下一部分优秀工程师投奔到了苹果旗下;

上述几位除了JonathanCohen之外都与秘密研发的AppleCar有关。2015年9月,苹果罕见发布招聘广告,大规模招募人工智能和机器学习方面的人才。路透社去年援引艾伦人工智能研究所CEO、华盛顿大学教授OrenEtzioni的话表示,在招募机器学习人才方面苹果的起步较慢,不过苹果正试图追赶竞争对手。

更重要的一点还在于,由于坚定的用户隐私保护措施,机器学习创业公司Dato联合创始人JosephGonzalez评价道:「苹果希望其手机能在不了解外部世界的情况下快速响应用户需求,以此方式实现人工智能,很难实现。」

与此同时,Google从一开始就定位于信息的收集、整合,其基于信息的智能已爆发出不小的影响力。

Google的人工智能:让流动的信息产生智能

早在2001年,拉里佩奇对于Google的定位就是人工智能。这个理念源于拉里·佩奇的恩师威诺格拉德,上世纪70年代,威诺格拉德曾作为MIT人工智能实验室的一员,一门心思要制造与人类思维匹配的智能。然而威诺格拉德看到所谓人工智能在各个领域的溃败,同时又受到加州大学伯克利分校教授塞尔斯「中文房间」理念的启发,最终退出这个领域。

1998年,威诺格拉德和他的学生拉里·佩奇、谢尔盖·布林及其导师拉杰夫·莫特瓦尼联合发布了一篇学术论文《你能用自己口袋里的论文做什么?(WhatCanYouDowithaWebinYourPocket?)》,该论文提出了谷歌搜索的产品原型。同年,佩奇和布林从斯坦福大学毕业,创立谷歌,通过改善人类信息组织和发现的方式,创造一种可以为人类服务的智能方式。

该论文的概念也体现在Google的Slogon里:「整合全球信息并为其使用」。因此Google对于信息背后的智能方式有着天然的热爱,硅谷资深记者StevenLevy在六年前探访Google总部后这样写道:

Google搜索的最大创新是引入新算法PageRank。而网络搜索是一个多方过程。

首先,谷歌机器人获取每个可访问网站的内容。这些数据将被分解成一个索引(通过文字进行组织,就像书本的目录),这样就可以根据内容找到任何页面。每当用户键入一个查询,谷歌就会在索引中搜寻相关页面,然后返回一个包含多达数百万页面的列表。最复杂的是对列表进行排序,也就是决定哪些页面应该出现在最上面。

此时,上下文便有了用武之地。所有搜索引擎都会引入上下文,但没有一个像谷歌那样引入得那样多、应用那样自如。PageRank本身也是一个信号,同时也是页面的一个属性(指其相对于其他网页的重要性),该属性可以帮助确定其与查询内容的相关性,其中的一些信号在现在看来是显而易见的。

2012年,Google提出了知识图谱,所谓知识图谱,简而言之就是一种深度挖掘搜索词潜在的知识关系,来呈现更结构化的搜索结果。比如当你搜索硅谷,你所看到的不仅仅是关于硅谷的网页信息,还提供结构化及详细的关于主题的信息,下图的右侧就是Google的知识图谱:

将杂乱无章的网页到结构化的实体知识,搜索引擎可以通过知识图谱给用户提供更具条理的信息,甚至顺着知识图谱可以探索更深入、广泛和完整的知识体系,让用户发现他们意想不到的知识。Google高级副总裁艾米特·辛格博士一语道破知识图谱的重要意义所在:「构成这个世界的是实体,而非字符串(things,notstrings)」。

根据Google官方的说法,知识图谱的信息来自许多来源,包括CIA的世界概况,Freebase和维基百科,通过知识图谱,Google在践行「整合知识并使其可用」方面迈出了坚实的一步。

2011年开始,Google引入深度学习框架。深度学习并非什么新技术。上世纪60年代发明后,先后在80年代和90年代初期流行过一整,但随后就逐渐消沉。但在Google看来,深度学习需要的海量数据恰好也是Google最擅长的领域,与此同时,对于计算能力的高要求也是Google自身技术架构足以应对的。

深度学习最开始由吴恩达推动的Google大脑计划,Google技术大拿JeffDean也参与其中。当时想通过使用神经网络来提升技术水准,但并没有把研究做成像大学象牙塔那种,而是结合Android、Gmail、图片去改进产品解决真正问题。

2012年6月,《纽约时报》率先报道了Google大脑项目,吸引了公众的广泛关注。公众第一次了解到,利用16,000个CPUCore的并行计算平台去训练含有10亿个节点的深度神经网络(DNN,DeepNeuralNetworks),使其能够自我训练,能够实现对2万个不同物体的1,400万张图片进行辨识。

到了2012年年底,在业界关注的图片分类的竞赛ImageNet中,Google一支采用深度学习的精英团队完败给GeoffHinton手下的博士生团队。这也促使Google重新开始认识深度学习带来的巨大价值,一年后,Google高价收购了GeoffHinton的团队,并全面开始在产品里部署基于深度学习的相关技术。

从早期基于pageRank的搜索技术到引入知识图谱以及全面整合深度学习,Google一遍遍地将互联网上的原始信息、基于Android系统收集到信息、利用Google服务(搜索、Gmail、Youtube)搜集的信息清洗、过滤、重组,寄希望于从这些「0和1」的组合里找到智能的存在方式。

2014年10月,Google推出Gmail的「进化版」——Inbox,这是一个基于对邮件自动扫描后的重新展示,自Inbox的帮助下,用户收件箱里的邮件可以自动被归类到「旅行」(如机票邮件)、「财务」(如信用卡账单)、新闻资讯(如各种网站的订阅)。2015年的GoogleI/O大会发布的GooglePhoto令人震惊。Google开辟了对于照片处理的新方式,基于深度学习的算法,GooglePhoto可以自动识别、分类,并支持自然语言搜索。

Google:把鸡蛋放在多个篮筐

直到2015年夏天Google宣布重组,或许很多人还没有意识到这家公司的业务有多繁杂,在新的Alphabet架构下,新Google聚焦在在线业务和Android产品线以及云服务。尤其是在Google商业模式即将转型的大背景下,人工智能或许将出现在更多的Google产品里。

长期以来,Google的盈利渠道都是广告。在今年4月财报电话会议上,GoogleCEO桑达尔·皮查伊公开表示:Google将加快云计算业务发展,并计划在2020年使云计算业务超过广告业务。就在皮查伊上述表态的前后,Google云计算服务签下了Netflix、Spotify这样代表未来的企业级大客户;并挖来曾一手打造VMware的DianeGreene来统领云计算团队。

2016年7月的腾讯「云+未来」大会上,马化腾这样定义未来:「未来互联网行业就是利用人工智能在云端处理大数据。」这实际上也是Google在做的事情。皮查伊的这一幅手牌就是Google构建的云计算生态。今年的GoogleNext云计算大会上,Google发布了面向开发者的新机器学习平台,并开放语音识别API等等,如果再加上去年推出的TensorFlow平台,Google希望通过将这些人工智能的服务模块化、开放化,让云计算的PaaS层、IaaS层的服务都具备人工智能属性,从而能够快速完成数据处理。

DeepMind则是Google的另一个秘密武器。日前,Google宣布在数据中心的节能方案中采用DeepMind的算法,效果显著。根据官方的数据显示,这项技术帮助该公司将电力使用效率(PUE)提升了15%,与使用效率提升同时带来的则是耗电量的下降,如果能将数据中心的耗电量降低10%,便有可能在几年时间内为Google节约数亿美元电费。而进一步来看,倘若Google能在数据中心节能方面不断优化,其云计算的价格极有可能继续下降,在云计算服务目前还处在价格敏感阶段的时候,Google的想象力还很大。

总结

上世纪60年代,包括约翰·麦肯锡、马文·明斯基在内的人工智能先驱们坚信,只需十年时间就足以制造一种可以匹及人类智能的智能。后来的故事大家或许都知道了,半个多世纪的时间,人工智能在寒冬与初春的交替中缓慢前行。现在,在算法逐步成熟、数据量增加以及计算能力突飞猛进的帮助下,我们或将有幸见证一次最接近人类智能的智能。

与过往不同,这一次的智能诞生在每个人的手里紧紧握着的智能手机。本文并没有去对比其他互联网巨头,包括微软、亚马逊、Facebook以及中国BAT的布局和思路,但无一例外,你能感受的这些智能都或多或少地在你的指尖呈现。

从计算普及到交互进化,苹果和Google在两条不同的道路上快速前进,相比来说,包括微软、亚马逊、Facebook在内的人工智能计划都与Google类似,而坚守「隐私价值观」与「设备智能」的苹果,似乎并没有同盟者……虽说殊途同归,但观察以及见证他们的行进故事,也颇具意义。(本文首发钛媒体,作者/赵赛坡)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇