博舍

解决人工智能瓶颈 推动外卖行业发展 人工智能技术瓶颈

解决人工智能瓶颈 推动外卖行业发展

近年来,随着消费互联网迈向纵深,产业互联网渐入佳境,各行各业的数字化转型如火如荼。面对日趋复杂的环境,具备强大市场渗透力的数字化与智能化技术协同共进,在推动经济发展、赋能小微企业、保障民生等领域将发挥巨大作用。在新兴技术阵营中,人工智能释放的红利正让人们的生活变得更加美好。

以日常“点外卖”为例,骑手、用户和商家分别构成就业、民生、经济的缩影,如果人工智能可以实现对这三大群体的赋能,就可以满足不同场景下的配送需求,提升配送效率和用户体验,从而实现“让外卖触达世界每个角落”的愿景。而人工智能之所以能发挥作用,离不开ICT基础架构的升级与深度学习框架的跃迁。

科技力量改变外卖生态

一份外卖在30分钟内送达,已成为生活常态。但是,做到这一点并不简单:以一个骑手送5份订单为例,就要面向5个不同的商家和用户,配送路线的组合达到上万种。而在热门的外卖平台上,高峰期外卖日订单量巨大,涉及骑手人数也众多,实现30分钟送达的目标,路线组合更是天文数字。同时,对于老年人和儿童用户来说,能通过语音操作无障碍完成点外卖的全部流程,就更凸现了人性化设计。

据美团方面介绍,该公司的“技术助力生活”项目,其中一项重要工作就是寻求骑手调度的最优解。1万多名工程师在用人工智能技术提高效率的同时,通过定期做骑手来体验送餐过程中的痛点,不断优化解决方案。此外,该公司结合“智能交互”技术打造的服务引擎,具备语音能力,能让老年人和儿童以便捷的交流方式获取服务。尤其当用户的需求送达公司的“超脑系统”后,这一大规模、高复杂度的多人多点实时智能配送调度系统,将会进行快速计算,让用户获得超预期的服务体验。而从2016年起,美团就依托更多智能化技术,开始研发特定场景下的无人配送,在疫情防控期间得到检验并取得进展。

在整个外卖生态中,商户群体是美团赋能的另一核心领域。据悉,在“美团商家大脑”中,有海量的用户评价分析和知识关联,商家只需要一个SaaS收银系统专业版,就能定期获取用户的情感曲线变化、消费水平、环境偏好及相似商家等信息。同时,借助智能分析,商家还可以在服务现状、竞争力、商圈等层面得到洞察,为从开店到店面运营管理提供决策参考。

面对难题提供解决路径

据介绍,外卖只是美团构建生活服务整体生态图景的一部分,科技赋能所涉及的纷繁场景远不止于此。近年来,美团组建了强大的人工智能技术团队,为商家选址、引流、外卖配送、经营管理、供应链金融、营销推广等一整套服务体系提供了强大的AI能力支撑。但随着用户快速增长、智能业务不断升级,以及AI模型规模与复杂度持续上升,该公司的业务系统面临愈发严峻的性能挑战,如何从基础设施重构、软件优化等角度化解挑战,是其必须面对的问题。

以开源深度学习框架TensorFlow的应用为例:美团在英特尔至强可扩展处理器的基础上,从多维度进行深度改进,并采用了该公司推荐的技术优化方案。为进一步给推荐系统等应用进行AI赋能,美团使用TensorFlow进行模型训练,采取分布式计算方式解决海量参数的模型计算和参数更新问题。但随着业务高速发展,不仅推荐系统模型的规模和复杂度也有所提升。还会暴露出一系列问题。性能瓶颈的凸显,会带来总体拥有成本的飙升,可能对上层业务造成负面影响。

为了解决性能瓶颈问题,有两条路径可供选择:一条是迅速扩大基础设施建设规模,但会增加成本压力,并提升系统的整体复杂度;另一条是从系统与软件层面进行优化,具备更高的经济性与可行性。经过对TensorFlow框架与业务的分析定位,美团发现业务中的TensorFlow集群均衡负载与分布式集群的通信机制、延迟、单实例性能,都是亟需重点优化的方向,与英特尔合作探索第二条路径势在必行。明确方向后,美团将TensorFlow系统构建在基于英特尔至强可扩展处理器的服务器集群上,并采用CPU进行TensorFlow模型训练,在推荐系统场景中还使用了TensorFlowPS异步训练模式,支持业务分布式训练需求。

据了解,美团从单实例性能、分布式计算优化等多层面进行了全方位实践。新系统在支持能力层面,可做到千亿参数模型、上千Worker分布式训练的近线性加速、全年样本在1天内完成训练,并支持在线深度学习的能力;各种架构和接口也更友好,得到了美团业务部门的认可。

(责编:董童、李源)

分享让更多人看到

人工智能简史

人工智能通识文章索引image.png

出生就遇到黄金时代的人工智能,过度高估了科学技术的发展速度,太过乐观的承诺无法按时兑现的时候,就引发了全世界对人工智能技术的怀疑。

image.png

1973年,著名数学家拉特希尔向英国政府提交了一份关于人工智能的研究报告,对当时的机器人技术、语言处理技术和图像识别技术进行了严厉的批评,尖锐的指出人工智能那些看上去宏伟的目标根本无法实现,研究已经完全失败。此后,科学界对人工智能进行了一轮深入的拷问,使AI的遭受到严厉的批评和对其实际价值的质疑。随后,各国政府和机构也停止或减少了资金投入,人工智能在70年代陷入了第一次寒冬。

image.png

这次寒冬不是偶然的。在人工智能的黄金时代,虽然创造了各种软件程序或硬件机器人,但它们看起来都只是“玩具”,要迈进到实用的工业产品,科学家们确实一些遇到了不可战胜的挑战。

让科学家们最头痛的就是虽然很多难题理论上可以解决,看上去只是少量的规则和几个很少的棋子,但带来的计算量增加却是惊人的增长,实际上根本无法解决。就像26个字母魔法般的组合成数万个单词,进而在不同语境下组合成无限种句子。比如运行某个有2的100次方个计算的程序,即使用现在很快的计算机也要计算数万亿年,这是不可想象的。

image.png

就像飞机需要有足够的马力才能从跑道上起飞,人工智能也需要足够的计算力才能真正发挥作用。当时有科学家计算得出,要用计算机模拟人类视网膜视觉至少需要执行10亿次指令,而1976年世界最快的计算机Cray-1造价数百万美元,但速度还不到1亿次,普通电脑的计算速度还不到一百万次。五十年后,现在我们的笔记本或者手机能够依赖摄像头轻松实现人脸识别,这些设备的运算速度其实都已经超过百亿次,当然没有压力。

image.png

人工智能还需要大量的人类经验和真实世界的数据,要知道即使一个三岁婴儿的智能水平,也是观看过数亿张图像之后才形成的。由于当时计算机和互联网都没有普及,或者如此庞大数据是不可能的任务。

image.png

很多人工智能科学家开始发现,数学推理、代数几何这样的人类智能,计算机可以用很少的计算力轻松完成,而对于图像识别、声音识别和自由运动这样人类无须动脑,靠本能和直觉就能完成的事情,计算机却需要巨大的运算量才可能实现。这个论调一方面让人怀疑早期神经网络算法的有效性和实用性,另一方面也导致人工智能技术向更加功利化、实用化方向发展,不再像黄金时代那样充满想象,充满对模拟通用人类智能的追求。

image.png

曾经一度被非常看好的神经网络技术,过分依赖于计算力和经验数据量,因此长时期没有取得实质性的进展,1969年马文敏斯基与人合著的《感知器》一书,这本书阐明了神经网络现阶段的真实能力,也表明之前很多过于乐观的预测是难以实现的理论。尽管书中内容科学客观,但也对神经网络技术产生了毁灭性的打击,后续十年内几乎没人投入更进一步的研究。

当然,十年河东十年河西,数十年后,神经网络又已经成我们现在人工智能的关键技术。

image.png

1979年,斯坦福大学制造了有史以来最早的无人驾驶车StanfordCart,它依靠视觉感应器能够在没有人工干预的情况下,自主的穿过散乱扔着椅子的房间,虽然可能有点慢,需要几个小时才能完成。

image.png

专家系统在这个时代的末尾出现,并开启了下一个时代。1978年,卡耐基梅隆大学开始开发一款能够帮助顾客自动选配计算机配件的软件程序XCON,并且在1980年真实投入工厂使用,这是个完善的专家系统,包含了设定好的超过2500条规则,在后续几年处理了超过80000条订单,准确度超过95%,每年节省超过2500万美元。

人工智能通识文章索引每个人的智能决策新时代

如果您发现文章错误,请不吝留言指正;如果您觉得有用,请点喜欢;如果您觉得很有用,欢迎转载~

END

人工智能已到瓶颈! AI未来发展方向

AI泰斗张钹:AI最重要的能力是知识,而不是数据

阿尔法狗打败围棋高手、索菲亚任你问答、无人车陆续量产,人工智能正日益为人类社会带来不可思议的改变。人工智能一方面在不断挑战人类的想象力,一方面又显得十分智障,人工智能呈现出两种不同的面貌。

日前,中国科学院院士、清华大学人工智能研究院院长张钹发表了题为《人工智能产业化面临的挑战》的演讲,用AI的经典案例,阐述了人工智能的“特点”与“雷区”。

以医疗场景的例子而言,

AI可进行肿瘤检测,但医院目前无法大规模应用这项技术。首先由于深度学习具有不可解释性,即AI不能像医生一样对病因进行有效解释,其更倾向于做出直接的的判断;其次因为AI其鲁棒性不够强,稍许噪声都会对机器产生很大干扰,其差别甚至会大到使机器将“雪山”识别成“狗”。

因而,AI在医疗中需要解决三个问题,包括AI系统的可解释性和鲁棒性;个人数据的隐私和保护;规章与制度改革问题。尤其要解决解释性的问题,就需要AI学习医生的知识,用医生的知识去对病情进行解释,不然AI无法解释,也无法与医生进行交互。

因而,实际上说,对人工智能来说最重要的能力是知识,而不是数据。机器应用数据的能力强于人类、人类应用知识的能力强于机器,如果不能两者结合起来,人工智能就无法很好与产业进行结合。

而在更广的领域,人工智能要应用到具体场景,必须要满足下面的5个限制:有丰富的数据或者丰富的知识、完全信息、确定性信息、静态与结构性环境、单任务与有限领域。AI要实现,这五个条件缺一不可。

AlphaGo:深度学习的大师,但桥牌不敌人类

如AlphaGo打败李世石,成为AI发展史上的一个里程碑,AlphaGo抛弃了传统下棋程序的编程方法,创造性的利用机器学习来获取下棋的经验与直觉。其不仅学习了以往围棋大师们已下过的所有棋局——约几千万棋局,还通过强化学习(自己与自己对弈),学习了上亿个新棋局。这就意味着,AlphaGo下过的棋是任何一位围棋大师一生下过棋的几百上千倍。由于围棋棋局空间很大(约2x10170),在围棋几千年的历史中人类只是探索了其中的一部分,AlphaGo利用计算机的超强计算能力,不仅把人类已经探索过的空间加以优化,还探索了新的空间(即新的棋局)。正由于此,人类棋手在AlphaGo面前才显得十分被动。

但张钹院士认为,研究AlphaGo不过是为了研究人工智能解决这类问题的方法以及可能达到的水平,其为完全信息博弈,信息完全和确定,遵循着完全确定的游戏规则演化,拥有静态与结构性环境。而计算机打麻将就难以超越人类,因为牌类是不完全信息博弈,因而人工智能学习比棋类困难。

Watson:有限问答,对话系统推理能力差

但Watson的智能仅体现在初步的智能推理上,开放领域的人机对话难以实现,如面向开放领域人机对话的索菲亚机器人就体现了这一缺陷。此前曾有一个中国记者给索菲亚提出了4个问题,其只答对了一个。询问「你几岁了」,索菲亚的回答是「你好,你看起来不错」;「你能回答多少问题呢」,其回答是「请继续,没听懂」;询问「你希望我问你什么问题呢」,索菲亚回答「你经常在北京做户外活动吗」……

如上,目前开放领域的问答只能进行少量的智能推理,Watson已经算其中的佼佼者。而索菲亚,只能做娱乐和研究,不能进行产业应用,不然“离骗子也不会太远”。

自动驾驶:不适应不确定性环境,犯错就是必然性错误

而对于目前较为乐观的自动驾驶领域,可以通过数据驱动的方法,学习不同场景下的图象分割,并判别是车辆还是行人、道路等,然后建立三维模型,在三维模型上规划行驶路径,应用硬件可以做到实时。但目前自动驾驶依然不能解决所有问题,如果路况比较简单,行人、车辆很少,勉强可以使用,复杂的路况就难以实现。

其主要原因在于,行人或司机都会有意无意破坏交通规则,使得数据驱动方法失效,各种各样的行为是难以用数据训练就能学习的。如果行人违反规则,计算机不能正确反应,就会造成不可避免的危险。而驾驶员的经验和知识,此时就变得尤为重要。从犯错误的概率来说,人类也优于人工智能:人类犯错误是偶然的;而机器一旦犯错误,就是系统性错误,必然错误。

AlphaGo、Watson、自动驾驶……这些人工智能领域的典型代表和场景,也都存在着局限。因而,目前人工智能只能在丰富的数据或者丰富的知识、完全信息、确定性信息、静态与结构性环境、单任务与有限领域下才能更好发挥能力。

但在不满足条件的情况下,人工智能产业化会很难走,这些就是创业的雷区。避开这些雷区,才能更少的造出“人工智障”。

人工智能已到瓶颈!院士“联名”反深度学习,并指出AI未来发展方向机器学习的弊病

当下,最常被提起的名词就是机器学习、深度学习和神经网络,用数学上集合里的概念去理解这三者之间的联系,他们之间依次是包含的关系,即机器学习包含深度学习,深度学习包含神经网络。其中,四层以上的神经网络就可以称之为深度学习,而深度学习是一种典型的机器学习。

上世纪五十年代,神经网络这一算法结构出现,当时,它的正式名称应叫做感知机,但已经包含了输入层、隐含层和输出层这一经典的通用结构,并且随着隐含层层数的加深,对事情的描述就愈加精准。

但是,神经网络是一种以输入为导向的算法,所以优质的结果一定取决于接近“无穷”量级的数据。因而,在2000年互联网革命没有爆发之前,它一直都处在无人问津的阶段。“老百姓概念里的‘大数据’和我们所认为的大数据是完全不一样的,就拿图像处理来说,数十亿的数据量看似量级很高,但对我们来说,它其实是‘小样本’。因为真正能够训练出好的模型的数据量,应当是趋于无穷的,所以即便是拥有了大量数据去训练模型,和理想的智能模型之间,也有着本质的差别。”从算法性质出发,加州大学伯克利分校电子工程与计算机系教授马毅也点出了当下这项火热技术的局限性。

新方向探索

数据处理方法、基本思想和技术思路

1.数据处理层面,语义向量空间或进一步拓宽入口。

看见了技术的“天花板”,很多专家学者开始提出“小数据”的概念,然而清华大学人工智能学院院长张钹院士却不认为数据量的大小是当下的根本问题所在,他指出,传统的人工智能三要素将不能带来真正的智能。

“评价人工智能获得的成果,我们可以从这五件事来看:深蓝打败人类国际象棋冠军;IBM在电视知识竞赛中打败了美国的前两个冠军;2015年微软在ImageNet上做图象识别,误识率略低于人类;百度、讯飞也都宣布在单句的中文语音识别上识别准确度略低于人类和AlphaGo打败了李世石。前两件事归为一类,后三件事可归为另一类。

大家一致认为,这五件事得以发生的三要素是:大数据、算力的提升和非常好的人工智能算法。但我认为大家忽略了一项因素,就是这所有的成果必须建立在一个合适的场景下。”

换言之,当下人工智能的发展避不开种种限制条件,因而智能的机器也只能够照章办事,没有任何灵活性,也达不到人们想要的智能,而这也就是当下AI的发展状态。

那解决办法是什么呢?通过循序渐进,张院士在演讲中给出了思路,并指明语义向量空间这一技术方向。

“首先,需要明确的是,现有的机器缺乏推理能力的原因在于它没有常识。”

张钹院士通过实验验证,常识的建立确实会极大程度的提升机器的性能。而为机器建立常识库也成为人工智能企业进一步提升系统性能的第一步。“美国在1984年就搞了这样一个常识库的工程,做到现在还没完全做出来。可见,要走向真正的人工智能,有理解的人工智能,是一条很漫长的路。”

但即使在建立常识库的基础上,做到有理解能力的人工智能依然不容易。想要提升智能的第二步,在张院士看来,就是将感性和知识的世界统一起来,而这将为人工智能的发展带来一次质的飞跃。

“深度学习之所以能够极大的促进人工智能的发展,技术上的关键在于人们能够将获取的标量数据转变为向量,从而用到机器上。但至今为止,将行为(特征向量)和数据(符号向量)结合起来使用始终是科研的难点,而这就限制了机器变得更‘智能’。”

不仅如此,从安全层面来看,纯数据驱动的系统也存在很大问题——鲁棒性很差,易受到很大的干扰。因而,在大量样本的训练下,系统仍会犯重大的错误。如商汤、旷视等头部企业也表示,即便训练出的系统模型准确率高达99%,但在实际应用中,系统仍然会犯很多“弱智”的错误。

“我们现在想出的解决办法是这样的,就是把这特征向量空间和符号向量投射到一个空间去,这个空间我们把它叫做语义向量空间。”

怎么做?张院士表示:

第一,要通过Embedding(嵌入)把符号变成向量,尽量保持语义不丢失;第二就是Raising(提升),结合神经学科,把特征空间提升到语义空间。

“只有解决这些问题,我们才能够建立一个统一的理论。因为在过去,对感知和认知的处理方法是不同的,因而两者不在同一维度,无法统一处理。但如果我们能够将感知和认知投射到同一空间,我们就可以建立一个统一的理论框架,并在语义向量空间里解决理解问题。这是我们的目标,但是这项工作是非常艰巨。”

2.基本思想的颠覆,模糊计算或是未来。

“无论是知识图谱,语义向量空间还是当下的其他深度学习训练,它们都是基于概率统计理论,而模糊逻辑不是,它是以模糊集理论为基础的。”非常大胆的,从思想层面,美国犹他州立大学计算机系终身教授承恒达给出了颠覆性的想法。

其实模糊逻辑并非全新的概念。1931年,KurtG?del发表论文证明了形式数论(即算术逻辑)系统的“不完全性定理”,模糊逻辑诞生。而在1965年,美国加州大学的L.A.Zadeh博士发表的关于模糊集的论文,标志着人类首次用数学理论成功描述了不确定性。

“现在的计算机领域,不是0就是1,而我们描述的是0到1之间的很多不确定性成分,其实,这一过程描述的是导致结果的原因。以两瓶水为例,一瓶水上标记‘是纯净水的概率是0.91’,而另一瓶水上标记的是‘水的纯净程度是0.91’,你会选择哪一瓶呢?显然,你会选择后者。这里的思考判断过程就是模糊逻辑,因为后者对于程度的描述本质上就是模糊的。”

目前,类似于经典逻辑体系(微积分、线性代数、生物学等衍生学科),模糊逻辑也逐步形成了自己的逻辑体系。

然而再好的技术,都需要结合应用去展现它的优势。在这一方面,承教授也是格外重视,于是他选择了乳腺癌的早期诊断研究领域。“到目前为止,我们的设计样本已经被全世界二十多个国家,五十多个团队用来使用。”

在承教授看来,现有的技术存在着非常明显的不足,需要大家沉下心来去分析问题,从而探索到改进的方法。“现在大家都在模拟脑波中的电信号,但其实大脑里存在的不仅仅是电信号,还有化学反应。而很多人在做的医学图像处理,实际上只是做图像处理,却不是医学图像处理,它们之间是有着非常大的不同。”

3.技术思路:大繁至简

当下,面对技术的毫无进展,AI公司的焦虑显而易见。不同于上面院士教授们给出的具体技术思路,马毅教授更像是科技界的“鲁迅”,他用PPT中一张张演讲稿中的优质论文做例,只为重新唤醒大家对于AI的思考。

“神经网络,导入的数据有一个很小的改动,分类就会有很大的变化,这不是什么新发现,2010年,大家就遇到这样的问题,但至今没有解决。”演讲一开始,马毅就拎出了“老生常谈”,毫不留情的将一盆冷水浇到了众多对AI盲目乐观的人身上。

对技术的不正确认知,马毅也在极力得纠正。“在人脸识别领域,要让算法具有鲁棒性,比写个AlphaGo要困难千倍。”“都说神经网络越大越好,这简直是胡说八道。”嬉笑怒骂间,从事研究数年,马毅给出了自己的思考方向:“真正的优质算法一定是最简单的,比如迭代、递归,还有经典的ADMM,这些简单的算法就很好,也很有用。”

结束语接下来,人工智能技术的发展并不会乐观,尤其是产业发展将进入一个平缓期,但是这并不意味着学术界和产业界将无事可做。正如张钹院士指出的,“我们正在通往真正AI的路上,现在走得并不远,在出发点附近。但人工智能永远在路上,大家要有思想准备,而这也就是人工智能的魅力。”

图灵奖得主姚期智:人工智能三大技术瓶颈亟待突破 需要从0到1的原创研究

原标题:图灵奖得主姚期智:人工智能三大技术瓶颈亟待突破需要从0到1的原创研究

10月22日,2020浦江创新论坛全体大会上,图灵奖获得者、中国科学院院士姚期智做了题为《人工智能面对的一些挑战》的演讲,提出人工智能有三大技术瓶颈亟待突破,需要科学家“从0到1”的原创研究。

姚期智认为,脆弱性是人工智能面临的第一大技术瓶颈。人眼识别十分稳定,一个图像如有微小改变,人仍能一眼看出它是什么。然而,人工智能在图像识别方面有点“人工智障”,比如将一只小猪的照片加入一些图像“杂音”,一些机器视觉系统居然会把它识别为飞机。“小猪变飞机”这种漏洞会给人工智能应用带来安全隐患,比如黑客可以攻击汽车自动驾驶系统,诱导它将马路上的“停止”标识当作“通行”,从而引发交通事故。

第二大技术瓶颈是机器学习算法缺乏可解释性,很多算法处于“黑盒子”状态。例如一个科研团队开发了一个房地产估价系统,这个系统通过一套算法学习了有关各地房地产价格的大数据,从而能自动评估房地产价格。然而,这套算法像黑盒子一样,很难给出估价的完整依据。这在商业应用上是一块很大的短板,房地产商会怀疑:人工智能系统是否低估了价格?是不是有利益相关方对系统做了手脚,故意压价?因此,算法的可解释性问题亟待科研突破,否则会大幅限制人工智能的商业应用进程。

第三大技术瓶颈是人工智能的对抗性较弱。如今,一个无人机群可以轻松完成灯光秀、农林作业等任务,但要看到,这些任务都是在自然环境下完成的,如果是处于高对抗的人为环境中呢?比如在电子竞技和军事战斗中,无人机群的协同作战能力就会受到很大考验,要在对抗中胜出,需要计算机科学、数学等领域的科学家进行深入的强化学习、博弈论研究,让无人机群能够在高对抗环境中自主找到最优策略。“这是一个很重要的科研方向,需要从0到1的突破。”姚期智说。

预计到2030年全球人工智能市场规模将达到15.7万亿美元

普华永道数据预测,受到下游需求倒逼和上游技术成型推动的双重动因,2020年全球人工智能市场规模将达到2万亿美元,预计未来几年市场将继续保持高速增长,到2030年全球市场规模将达到15.7万亿美元的规模,约合人民币104万亿元。

北美、亚洲和欧洲是全球人工智能发展最为迅速的地区,人工智能活跃企业超千家

近年来,人工智能在北美洲、亚洲、欧洲地区发展愈演愈烈。北美、亚洲和欧洲是全球人工智能发展最为迅速的地区。截止2019年底,北美地区共有2472家人工智能活跃企业,超级独角兽企业78家;亚洲地区活跃人工智能企业1667家,超级独角兽企业8家;欧洲地区活跃人工智能企业1149家,超级独角兽企业8家。返回搜狐,查看更多

责任编辑:

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇