盘点近些年人工智能的发展状况,看清某些AI技术的是与非
来源:芯论语摘要:本文从科普的视角,盘点近年来人工智能(AI)发展的热点事件,宏观了解AI技术的发展水平和未来趋势,浅谈AI作为未来世界的核心技术,它将给社会带来的正面和负面影响。AI发展经历了过去的第一代和现在的第二代,若从AI技术发展历史的终点回头来看,可能今天的阶段只是起步阶段吧,发展理想的具有人类智能的AI系统的道路将是漫漫长路,下一代AI技术的重点是什么?目前还暂未明朗。
人工智能(ArtificialIntelligence,简称AI)是利用计算机研究和开发模拟、延伸和扩展人类智能的科学技术。在它被提出来的50多年时间里,AI的内涵逐步丰富,研究方向、目标任务进一步明确,学科体系不断细化完善,交叉学科不断外溢发展。今天形成了以计算机为支撑,涉及信息论、控制论、自动化、仿生学、生物学、心理学、数学、语言学、医学、哲学、伦理学等内容十分宽泛的交叉学科体系。
人工智能四个字从三个方面高度概括了其研究的内容。所谓“人工”就是以计算机为手段来模拟和扩展人类智能。所谓“智”就是模拟人类智慧,研究知识的获取、知识的表达和知识的运用等。所谓“能”就是延伸和扩展人类能力,研究如何深度学习、自主推理、逻辑思考和科学规划。
AI研究内容主要包括专家系统;神经网络;知识的表示、获取、搜索、处理和运用;深度学习、推理、博弈和规划;智能机器人;视觉识别;图像识别与合成;语音识别与合成;自然语言的理解、分析和综合;自动程序设计等。
AI应用领域包括专家系统;决策系统;智能交通;语音识别;图像识别;指纹、虹膜和人脸识别;搜索引擎;语音交互;无人驾驶;机器人等。
AI研究内容和应用领域很广,但大致可分为1.知识库(KnowledgeBase,可简称为KB);2.思维能力(ThinkingAbility,可简称为TA);3.机器学习(MachineLearning,简称ML);4.自然语言处理(NaturalLanguageProcessing,简称NLP);5.自动语音识别(AutomaticSpeechRecognition,可简称为ASR);6.计算机视觉(ComputerVision,简称CV);7.AI机器人(ArtificialIntelligenceRobot,可简称为AIR)等。前三者为后四者提供了基础技术支撑,后四者的应用场景在不断地拓展,逐步落地形成了许许多多AI应用场景。
下文通过梳理近年来AI领域发生的重要大事,希望宏观地了解AI技术的发展状况。通过AI各技术分支的概念介绍,探讨一下AI技术未来的发展趋势。并讨论一些AI应用的正面作用和负面影响。
一、AI的重要事件盘点
1.1997年IBM“深蓝”超级计算机与国际象棋名家对垒取胜。1997年5月11日,一台名为“深蓝”的超级计算机把棋盘上的一个兵走到C4位时,人类有史以来最牛的国际象棋名家卡斯帕罗夫(GarryKasparov)不得不沮丧地承认自己输了。世纪末的一场人机大战终于以计算机的微弱优势取胜[8]。
图1.IBM“深蓝”与国际象棋名家对垒取胜
2.2011年IBMWatson计算平台打败人类高手。IBMWatson是一个计算机感知平台。2011年2月,沃森(Watson)参加综艺节目危险边缘(Jeopardy)来测试它的能力,这是该节目有史以来第一次人与机器对决。2月14日至16日3集节目中,Watson在前两轮中与对手打平,而在最后一集里,Watson打败了最高奖金得主布拉德.鲁特尔(BradRutter)和连胜纪录保持者肯.詹宁斯(KenJennings)[1]。
图2.IBMWatson打败人类高手
3.2014年亚马逊率先推出智能音响Echo。2014年11月,亚马逊(Amazon)推出了一款全新概念的智能音箱,命名为Echo。这款产品最大的亮点是将智能的自然语言交互技术植入到传统音箱中,给音箱赋予了AI的属性。随后国内许多厂商跟进,市面各种品牌的智能音响曾经名噪一时。
图3.AmazonEcho和各种品牌的智能音箱
4.2014年伊恩.古德费洛(IanJ.Goodfellow)提出对抗生成网络。对抗生成网络(GenerativeAdversarialNetworks,简称GANs)是一种通过对抗过程估计生成模型的AI处理框架[21]。基于GANs处理框架,人们可以从无到有生成高精度人脸图像等。2018年12月,英伟达(Nvidia)做了一个高精度、超逼真的人脸生成AI系统。该系统可以按照某种要求生成细节极其丰富的人脸图像,如下图所示,这是一项石破天惊的进展。
之前AI虽然可以生成比较像的人像,但是像片分辨率不高,细节也不丰富。这次生成的照片的逼真和细腻程度令有些网友感到“毛骨悚然”和“不安”,人们很担心自己的形象某天会被AI伪造和滥用。有人甚至发问,“我们为什么要有这种技术?谁来约束和保证这种技术不被滥用?”。
图4.Nvidia基于GANs的AI系统生成的人脸图像
基于GANs处理框架,人们还可以从低分辨率到高分辨率对图像质量进行优化;也可以对图像风格进行转换,例如人物漫画创作、虚拟试衣、警察破案等。以下是部分GANs研究者的作品。
图5.16*16的小图像优化提升到1024*1024分辨率的清晰图像
图6.基于AI技术的人像漫画创作
图7.基于AI技术的虚拟试衣
5.2015年微软深层神经网络技术获得突破。2015年12月10日,微软亚洲研究院的视觉计算组在2015ImageNet计算机识别挑战赛中,凭借深层神经网络技术的最新突破,以绝对优势包揽图像分类、图像定位以及图像检测三个主要项目的冠军。微软研究团队使用的神经网络层数多达152层,这比之前最多层数多出5倍以上,使AI技术迈入了深层神经网络和深度学习的时代[3]。
6.2016年国内语音识别准确率均突破97%。2016年11月21日~23日,国内三家公司搜狗(Sogou)、百度(Baidu)和科大讯飞(Iflytek)接连召开发布会,向外界展示了自己在语音识别和机器翻译等方面的最新进展[4]。三家公司都宣布自己的中文语音识别准确率达到了97%。
搜狗语音团队是11月21日推出了自己的语音实时翻译技术,它包括语音识别和机器翻译。该团队介绍搜狗语音识别的准确率达到了97%,支持最快400字每秒的听写。百度则是在11月22日宣布向开发者开放情感合成、远场方案、唤醒二期和长语音方案等四项语音识别技术。在大数据支撑下,百度语音在“安静条件下”的识别准确率达到了97%。在11月23日的科大讯飞发布会上,科大讯飞轮值总裁胡郁表示科大讯飞的语音输入识别成功率也达到了97%,即使是离线情况下,识别准确率也达到了95%。
7.2017年AlphaGo战胜人类围棋高手柯洁。2016年以来,谷歌的阿尔法围棋(AlphaGo)可谓名声大噪。2016年3月,AlphaGo战胜韩国围棋高手李世石,2017年5月,在中国乌镇围棋峰会上,AlphaGoMaster与排名世界第一的世界围棋冠军柯洁对战,以3比0的总比分获胜。10月机器狗对狗大战,最强新版AlphaGoZero以89:11的战绩打败了曾经战胜柯洁的旧版AlphaGoMaster[5]。
图8.AlphaGo与柯洁的围棋大战
8.2018年Deepfake换脸技术成熟引发担忧。Deepfake是由深度机器学习(DeepMachineLearning)和假照片(FakePhoto)组合而成的单词。这项技术最早起源于2017年,一个匿名用户“Deepfakes”把《神奇女侠》的女主角盖尔.加朵(GalGadot)的脸移植到了一部成人电影的女主角身上,再用技术手段使其完美融合后,将视频上传到了Reddit的成人交流社区,一时间这部成人电影流量大增。Reddit以侵犯隐私为由将该部电影封禁。Deepfakes对于Reddit的封禁极为不满,作为报复,他直接把Deepfake技术的AI代码在Github上免费公开[20]。该技术引发人们广泛担忧是从2018年开始,由于Deepfake技术成熟,网站上换脸的假视频就多了起来。引发了人们对该黑科技的广泛关注和批评。
Deepfake技术的核心是深度机器学习在图像合成、风格替换上的应用。它只需要一些目标人物的图片素材,就能伪造出目标人物极其逼真的照片或视频,并且可以让目标人物在视频里按你写的台词讲话。该技术可用在影视作品制作、多媒体教学、AI主播等方面,当然也会被不法之徒滥用。
图9.用Deepfake换脸技术,右边是左边的换脸人(换脸6次)
9.谷歌推出Duplex自然语言会话功能:2018年5月,在2018GoogleI/O开发者大会上,谷歌介绍了GoogleAssistant的新功能Duplex。GoogleAssistant有了Duplex就可以自动打电话给餐厅或酒店进行订餐、行程安排、预约理发等功能,它不仅说话语气自然、100%接近人声,还能理解“复杂的句子、快速的演讲和冗长的评论”。3月初,谷歌已宣布Duplex将应用于苹果手机和其它安卓设备。有了Duplex功能,手机用户只要在GoogleAssistant制定一个计划表,Duplex就会按时自动为你打电话,与酒店或餐厅的人进行预订对话。如果预订成功,Duplex会自动更新用户的计划表,并提醒用户[12]。
图12.谷歌助手可与人类对话,预订酒店、餐厅和理发
10.谷歌AI预训练模型发布:2018年10月,谷歌AI团队发布了BERT模型(BidirectionalEncoderRepresentationfromTransformers),这是一个AI预训练模型。它在机器阅读理解的顶级水平测试SQuAD1.1中,表现出了惊人的成绩。测试的两个衡量指标上全面超越人类,并在11种不同自然语言处理(NLP)测试中创出最佳成绩,BERT模型也被看作是NLP领域的重大突破。
图12.三种NLP训练模型示意图
11.“网红”机器人和机器狗家族:2016年以来,网上不时出现波士顿动力(BostonDynamics)公司出品的机器人Atlas和机器狗Spot表演的视频。不论Atlas背翻跟头、翻越障碍,或者Spot负重快跑、巡逻、开门和拉大车,还是它们被推倒自己可以爬起来,都令网友们惊讶不已,这些都充分展示了智能机器人和机器狗的发展水平。
图12.“网红”机器人跨越障碍
图12.“网红”机器人背翻跟头
其实,波士顿动力已有几十年的“遛狗”经历。1992年波士顿动力从麻省理工学院分家后,花了超过十年的时间,才从实验室开发出第一台智能机器人,从那以后,波士顿动力俨然成为了智能机器人行业的领跑者,在模仿人和动物运动方面的实力无人能敌。
图12.2009年推出的大狗BigDog
2017年SpotMini推出,其重量仅为55磅,是波士顿动力的机器狗系列中最小一个。它全电力驱动,不含液压系统,一次充电可以实现90分钟的操作,一系列传感器为它提供了先进的导航功能,并能够自主执行一些基本任务。SpotMini还配置了一个可选的手臂和抓手(Arm),能让它在跌倒后迅速爬起来、还能捡起细碎的物品。
图12.SpotMini爬楼梯
图12.SpotMini+Arm开门
目前,SpotMini的完成度已经非常高。未来,如果你的车在路上抛锚,来拯救你的或许不再是传统的拖车,也许是10只SpotMini机器狗。
图12.10只SpotMini拉动一辆挂空挡大卡车
图12.波士顿动力的机器人/狗的家族
12.仿真智能主持人:2018年11月7日,在第五届世界互联网大会上,由搜狗(Sogou)与新华社合作开发的全球首个全仿真智能合成主播正式亮相。它根据所提供的稿件,就能准确无误地播报新闻。它不但可以模仿目标人说话的声音,而且嘴唇动作和表情的逼真程度几乎能以假乱真。据报道,AI合成主播依托的是Sogou分身技术。其原理是通过使用人脸关键点检测、人脸特征提取、人脸重构、唇语识别、情感迁移等多项技术,再结合语音、图像等多模态信息的联合建模训练后,生成与真人无异的AI分身模型。本次亮相的AI合成主播以新华社主播邱浩为原型,两者的声音以及外形都很相似[10]。
图12.全球首个AI合成主播的视频展示
13.2019年华为发布AI芯片:2019年8月23日,华为发布了一款商用AI芯片昇腾910(Ascend910)。昇腾910采用了7nm+EUV工艺,基于达芬奇(DaVinic)架构。它的算力相当于50个当前最强CPU的算力,训练速度也比目前最强的AI芯片强50%~100%。昇腾910的FP16算力达到256Tera-FLOPS,INT8算力达到512Tera-OPS。重要的是昇腾910达到规格算力所需的功耗仅为310W,明显低于设计规格的350W[14]。
图12.华为发布昇腾910AI芯片
14.阿里发布AI芯片:2019年9月25日,在杭州云栖大会上,阿里达摩院推出了号称全球最强AI芯片——含光800。在杭州城市大脑的业务测试中,1颗含光800的算力相当于10颗GPU。在业界标准的ResNet-50测试中,含光800推理性能达到78563IPS,比目前业界最好的AI芯片性能高4倍;能效比500IPS/W,是第二名的3.3倍。含光800将通过阿里云对外输出AI算力。基于含光800的AI云服务也于当天上线,相比传统GPU算力,性价比提升100%[15]。
图12.阿里发布含光800AI芯片
15.机器人单手拧魔方:2019年10月,OpenAI在官网上发布了Dactyl机器手在约4分钟的时间里,成功还原了一个三阶魔方的视频。该机器手第一次使用了深度机器学习技术自己学会了拧魔方。甚至在训练中还增加了一些干扰影响,Dactyl依然能成功地完成了任务[17]。2016年英飞凌(Infineon))的Sub1Reloaded机器用0.637秒解开了三阶魔方,以及2018年麻省理工学院的学生BenKatz和软件人员JaredDiCarlo开发的机器人以0.38秒解开三阶魔方,之前这些虽然速度很快,但那是用编程机器人来实现的。这次Dactyl通过深度学习,就可以还原三阶魔方,这是AI技术的一大突破。
图12.Dactyl机器手拧魔方(无干扰)的视频
图12.Dactyl机器手拧魔方(有干扰)的视频
16.2020年OpenAI发布语言模型GPT-3:GPT是可生预训练变换(GenerativePre-trainingTransformer)的英文简称,它是由亚历克.拉德福德(AlecRadford)编写的语言模型,于2018年由埃隆.马斯克(ElonMusk)的人工智能研究实验室OpenAI发布[22]。2020年5月,OpenAI发布了大型无监督语言模型GPT-3,它是GPT-2的改进版本,它的参数由GPT-2的15亿个提升到了1750亿个,性能有了显著的提升。GPT-3在自然语言处理处理各方面的性能十分优秀,包括在线翻译、问题回答和完形填空等任务,可以适应即时推理或领域适应的应用,也可以自动生成人们难以区分的新闻稿和短文。
17.2021年寒武纪最强AI芯片量产:2021年1月21日,寒武纪的思元290智能芯片及加速卡量产。思元290智能芯片是寒武纪的首颗训练芯片,它采用台积电7nm先进工艺,集成了460亿个晶体管[26]。据报道,思元290芯片在架构、多核芯互联、内存、接口等方面全面升级,相比思元270芯片,思元290芯片的峰值算力提升4倍,内存带宽提高12倍,芯片间通讯带宽提高19倍。加速卡的型号是MLU290-M5,它采用开放加速模块OAM设计,具备64个MLUCore,1.23TB/s的内存带宽以及全新MLU-Link™芯片间互联技术,在350W的最大散热功耗下提供的AI算力高达1024TOPS,全面支持AI训练、推理或混合型人工智能的计算加速任务。
图12.寒武纪最强AI芯片和加速卡
二、AI技术分支和应用
上文介绍了近年AI领域发生的重要事件,现对AI的技术分支,包括知识库、思维能力、机器学习、自然语言处理、自动语音识别、计算机视觉、人工智能机器人等进行简要介绍。
1.知识库(KB):AI的知识库是结构化的知识集合。知识集合包括对自然界的认知、专业知识和常识等。结构化是指知识的表达、存储、组织、关联、增加、删减和更新的组织结构和方法。人类的知识体系极为复杂,人类通过学习可以增加知识,但是大脑如何结构化的组织知识,如何表达、记忆和关联知识等,人类目前还知之甚少。
近年来,专业研究和开发知识库应用的公司不少,这些公司以知识库为核心,以应用为驱动力开发了不少行业应用的知识系统。例如北京明略科技集团、北京深蓝海域信息科技公司、北京中科汇联科技公司、广州润普网络科技公司等。
图13.明略知识图谱平台
图14.智能统一知识库架构
2.思维能力(TA):AI的思维能力是对知识处理和运用能力。它大致包括了比较、分析、综合、抽象、概括、搜索、情感、推理、规划、决策等。思维能力是人类智能的高级特质,在目前的AI系统中实现这样的特质困难还很大。
图15.基于知识库的AI数字政府应用框架
AI发展的最高级阶段是AI系统具有像人脑一样复杂的知识体系和思维能力。目前,AI系统用数据结构表达的知识体系是简单和原始的,因为人类对自己大脑的认识还很肤浅,还没有弄清它的本质。所以,目前AI系统基于数据结构实现的搜索、推理、规划等思维能力是很有限的能力,离真正意义上的思维能力还差得很远,更谈不上给AI系统赋予像人类一样的情感。如果这两部分不能形成技术上的重大突破,AI系统就只能处在初级原始的阶段,担心AI系统会统治人类目前看来是杞人忧天。
3.机器学习(ML):它是研究如何让电脑自己从数据中发现规律、模式和知识等,通过学习和分析不断扩大知识库,并依据现有知识库做出决定和判断。ML是基于电脑对人脑学习能力的模仿,是AI其它技术的基础支撑。ML包括基于深度神经网络的深度学习、增强学习、迁移学习等研究重点。ML的典型应用不胜枚举,影响最大的是AI与人类的棋类对决,落地最早、应用最多的AI技术是网络搜索应用、人脸识别的计算机视觉(CV)应用、人机会话的自动语音识别(ASR)应用等。目前大多AI应用中都使用了ML技术。
4.自然语言处理(NLP):它是计算机科学与语言学的交叉学科。NLP侧重研究自然语言的句子、词汇、语法和语义,使电脑能够理解、处理和运用人类的自然语言。若向没有NPL功能的电脑输入一段问话,电脑只能把它当作一个字符串来看待。若向有NPL功能的电脑输入这段问话,电脑就能知道你问话的意思,并回答你的问题。语义分析是NLP的核心技术。NLP要由语句获得句子的语义,就要使用知识库(KB)。由于语言是动态变化的,语义有时也会有歧义,常识和推理逻辑由于无边无界,决定了语义分析的难度很大。NLP的典型应用包括:搜索引擎、个人助手、客服机器人等有自然语言交互的应用场合。
5.自动语音识别(ASR):它是通过电脑和拾音处理设备来模拟人类听觉,对语音进行感知、存储、处理、理解,形成相关信息和知识,或者合成和生成相关新语音的技术。ASR的典型应用包括:语音文字输入、电器和设备语音控制、语音查询、人机对话、会议速记、电话客服等。
6.计算机视觉(CV):它是通过电脑和图像处理设备来模拟人类视觉,对图像等视觉信息进行感知、存储、处理、理解,形成相关信息和知识,或者合成和生成相关新图像和新视觉的技术。CV的典型应用包括:生物特征识别的人脸识别、指纹识别、虹膜识别、车牌识别、光学字符识别(OCR)、人脸识别、人的行为识别、视频监控、产品缺陷检测、以图搜图、视频检索等。
7.AI机器人(AIR):与传统的编程机器人相区分,它是具有AI功能的机器人。AIR除了要研究AI相关技术以外,还要研究更多传感器、制动器、运动算法等。AIR的种类和应用已很多,例如无人机、自动驾驶汽车、学习娱乐和引导机器人、导盲机器人、物流和送菜机器人、医疗机器人、排险机器人等。
下图对前文所列17件AI大事涉及的技术及应用进行了汇总。可以看到属于机器学习(ML)的事件最多,其次是自然语言处理(NLP),再次就是自动语音识别(ASR)、计算机视觉(CV)和智能机器人(AIR)。究其原因,因为ML和NLP是AI的基础性支撑技术,也是这波AI发展热潮的推动力量。
图16.AI事件涉及的技术与应用汇总一览表
在应用方面,落地最快、挖掘最充分的应用场景大部分都集中在CV和ASR的两个方面。据报道,中国AI领域20个独角兽、30个准独角兽企业,近80%都跟CV和ASR有关系。在AIR方面,国外企业的创新和研发走在前面,国内企业则在应用创新方面深耕细作,大力开拓了AI应用的领域。
AI发展现状小结:目前,AI技术发展是基于二进制信息表达、冯氏计算机架构(虽然不断有改良和创新)、以及当代芯片技术等。在此基础上,逐步建立了神经网络架构、模型和算法。由于芯片集成度大幅提高,计算力大幅提升,神经网络层数不断加深,使得ML向深层机器学习(DeepML)发展,加上大数据(BigData)的支撑,从而掀起了这一波有广泛影响力、有技术突破、有应用落地的AI发展新浪潮。
中科院院士、清华大学人工智能研究院院长张钹教授认为,目前,DeepML是AI最受关注的领域,但并不是AI研究的全部。DeepML只是目前AI技术的一部分,知识表示、不确定性处理、人机交互等更大更宽的领域都亟待进行深入研究[13]。我们可以看到,AI知识库(KB)和思维体系(TS)两个方面并未取得重大突破。目前AI系统所处理的大量信息,只能算作是数据(Data)而不是真正意义上的知识(Knowledge),因为人脑知识体系要比这些数据复杂很多很多;目前AI系统的数据检索、推理、判断和综合等处理过程只能算作是简单的思维过程,与人脑那样的KB和TS不在一个水平上,不可同日而语。人们甚至还没有弄清楚人脑是如何储存知识,更不知道它是如何处理这些知识,以及如何基于这些知识进行推理和思维。
目前的AI所能处理的工作要具备5个限制条件才能有所突破[13]。一是数据充分(量大、多样、齐全);二是规则明确(有规则可依,要照章办事);三是完全信息下的决策(当前信息完全时,才可以决断),例如下象棋是完全信息博弈,牌类和麻将是不完全信息博弈;四是静态演化(按确定规律演化,结果可预测);五是特定领域(只能单任务、单应用场景,不能适用于多种领域)。目前AI突破人类能力的事件,都满足了上述5个条件。从事同时满足这5个条件的工作的人员可能会被AI淘汰;对于单个或多个条件不满足的场合,目前的AI肯定不会超越人类智能,从事相应工作的人员将不会被AI取代。
鉴于目前AI技术发展现状,张钹院士认为目前基于DeepML的AI,尽管产业层面还有很大发展空间,但在技术层面已经触及天花板。从长远来看,AI必须走人类智能这条路,最终要发展人机协同,人类和机器和谐共处的世界。未来需要建立可解释、鲁棒性的AI理论和方法,发展安全、可靠和可信的AI技术[13]。
图17.张钹院士:AI奇迹短期难再现深度学习已近天花板
以上AI发展现状的评价是从技术角度来看的,稍显冷静客观一些。但从产业角度(特别是从投资角度)来看,人们则要乐观很多。由于AI的应用很广,它的应用场景还在不断挖掘,所以市场潜力还是很大的。但是要记住,投资界总是很珍惜每次新技术进步带来的“吹”大风机会。风吹得大一点也很自然,要不然投资的“猪”怎么能飞起来呢?
三、第三代人工智能是什么
张钹院士提出了AI的三代论。他把过去以符号推理为核心的AI称为第一代,把目前以深度机器学习(概率学习)为主导的AI称为第二代,把未来具有理解力的AI称为第三代。
他认为第一代AI发展到现在的第二代AI,其技术具有很大的局限性。局限性一是今天的AI只能在满足5个限制条件情况下,才能发挥作用。二是目前AI的理解和推理能力是很有限的。例如,在知识库里有「特朗普-总统-美国」三元组信息。AI就可以正确回答“谁是美国总统?”这个问题。但是,AI要回答“特朗普是一个人吗?”、“特朗普是一个美国人吗?”、“美国有没有总统?”等需要常识和推理的问题,它肯定会懵圈,保准回答不上来。三是今天的AI用准符号模型,深度机器学习、神经网络来模拟人类智能的感性行为是件很难的事情,因为感性(感觉)没办法精确地描述,例如人们很难告诉计算机什么叫做马?你说马有四条腿,什么叫做腿?你说细长的叫做腿,什么叫细,什么叫做长?因此,计算机无法理解、接收和储存你说的这个马及相关知识,因而基于这些知识的推理将无从谈起。除这三点之外,应该还有一些其它的局限性,只是暂时还未暴露出来而已。
所以,张钹院士提出下一代AI发展目标,即建立一个全面反映人类智能的AI,需要建立可解释、鲁棒性的AI理论与方法,发展安全、可信、可靠与可扩展的AI技术,即第三代人工智能。这是他为AI下一步发展指明的努力方向。
其实,下一代AI的发展目标是什么?这是一个不确定的问题,这个目标可定的大一些也可以定的小一些。只有当AI在发展过程中取得了重大技术突破,产生了重大经济和社会影响,回顾历史时才可以被确定为一代。
AI的终极理想一是具有接近人类的智慧,可以像人类一样思维和推理,可以进行人机知识传输;二是具有(或超过)人类的能力,包括感知、理解、计算、规划等方面的能力。这就要求实现AI的电脑架构要尽可能地与人脑相似,尽可能地模仿人脑。但是,目前的电脑和人脑在知识的表达、储存、处理和应用等方面存在天壤之别,前者是电系统,后者是生、化、电的混合系统;前者是二进制信息,后者是模拟信号。目前人类对自己大脑的了解知之甚少,模仿人脑的工作还处于非常初级的阶段。因此,发展全面反映人类智能的AI,工作艰巨道路漫长,目前只是刚刚起步。
AI的终极理想今天看似一个梦想,但未来几十年乃至几个世纪之后可能会变成现实。到那时,人脑奥秘已经被破解,类人脑AI技术已发展成熟。人类可以把自己的知识、想法和技巧通过人-机接口传递给AI机器人;也可以把AI机器人完成的工作结果、设计成果等通过机-人接口收回存入自己的记忆中;或者把人脑的专业知识打包,通过人-机接口传递给AI机器人,再通过机-人接口下载到新成人大脑中,新成人可以瞬间变成一个称职专业人员,成为一名合格的领导、律师、警察、技师、农民等,新成人可以省去十多年的教育培养过程。那时,工作交接可以瞬间完成,老师这个职业已经不复存在。
四、人工智能带来的是与非
人类经历了原始社会、自然文明社会,走过了机械化和电力化的工业社会、计算机化的信息社会,正在走向人工智能的智能社会。每次技术革命都会给社会进步带来飞跃,例如机器和电力带来了生产力的大幅提升,化学带来了生活的丰富多彩,网络带来了通讯交流的便利化,等等。但同时,新技术革命也会带来许多负面影响,例如手工业者失业、资源过度浪费、环境污染、电讯诈骗猖獗等。
同样地,发展AI可以增强人类智慧和能力,必然会给人类生活带来翻天覆地的变化。但同时负面影响也不容小觑。本文关注的是AI技术中,“无中生有”的技术可能给社会管理带来的挑战。这类技术包括1.PhotoShop的AI抠图换背景技术;2.仿声语音合成技术;3.视频换脸Deepfake技术。
1.PhotoShop的AI抠图换背景技术。对于熟悉Photoshop(简称PS)的摄影人来说,为了对照片调色或者换背景,经常要对人物或者主体进行抠图,然后再通过换背景来个“移花接木”。PS手工抠图不但费时费力,抠图边缘也很难做到完美,特别是发丝与背景交织一起,抠图难度很大。所以修改后的照片如果仔细看,多少都会露出修改的丝蛛马迹。2018年以后的PS版本增加了基于机器学习(ML)的AI智能抠图功能,只要一键就可以完成抠图,特别是把人物边缘包括蓬乱的发丝处理的恰到好处,可以做到“毫发无损”。AI智能抠图给摄影人员做照片后期处理带来福音,同时也给不法人员制作“无中生有”的照片提供了强有力的伪造工具[7]。
图18.PS的AI智能抠图功能的演示动图
图19.毫发无损的AI智能抠图的例图
2.仿声语音合成技术:目前,大家常用的汽车导航软件都配置了许多明星、名人和播音员的导航语音包。因为播报的路名地名极多,时常也要更新变化,所以这些语音包并不是真人在录音棚录制的,而是采用AI语音合成技术自动生成的。如果该技术生成导航语音包之前征得了被仿制人同意,这是仿制;如果未征得同意,这种仿制就变成了伪造。特别是,这种技术也可能用于非法目的,例如金融诈骗、报复和诽谤等。
3.视频换脸Deepfake技术:最初Deepfake是一名AI程序员为了娱乐目的,专为成人视频“换脸”而开发的AI黑科技。目前已经成为免费开源的软件,并被广大程序员进一步完善成熟。它可以用于影视制作、合成主播、娱乐短视频等应用,也可以被不法人员用于“无中生有”地伪造视频,用于敲诈、报复和诽谤等目的。网上很多人呼吁,应该对这类AI黑科技加强监管。
据报道,2018年4月,印度女记者RanaAyyub遭到了她写的纪实报道的当事方疯狂报复。当事方用Deepfake伪造了她的性爱视频,在网络上大肆传播,给女记者及家人造成严重伤害。2019年3月,犯罪分子利用Deepfake技术冒充英国某能源公司CEO,成功诈骗到22万欧元。2019年6月13日,网上曝出马来西亚经济部长阿兹明.阿里(AzminAli)同性关系的视频,曾经轰动了整个马来西亚,后来证实这个视频是利用Deepfake伪造的假视频。
图20.Deepfake让爱因斯坦复活,号召大家保持距离,勤洗手,对抗新冠病毒
图21.《钢铁侠》女演员艾米.亚当斯(左)换上了尼古拉斯.凯奇的脸(右)
以上这些“无中生有”的AI技术对“有照片、有录音、有视频就有真相”的真伪鉴别模式造成了极大冲击,使人们失去真伪的辨别能力。今后,历史资料和证据档案中还需要保存照片、录音和视频作为证据吗?这些AI黑科技是科学家和社会管理者都需要正视的问题。
通常情况下法律出台总是滞后于现实需要。典型例子就是电信运营商早期非实名大量发卡,推出所谓虚拟运行商专号、号码“任意显”等功能,造成了早期城市满大街“牛皮癣”小广告泛滥;也造成了长期以来的电信诈骗案层出不穷。不但给市容和受害人造成很大伤害,而且浪费了大量的城市保洁和公安干警的精力。因此,建议今后在重大革命性技术出现和发展初期,科技界应积极配合法律界及时地跟进研究和预判,并配合立法机关做好立法的前期准备。国际社会应对“无中生有”的黑科技严加管束,但也无需“一杆子打翻一船人”,对这些黑科技有益的方面也应该加以保护。
结语:近年AI技术经过AlphaGo等事件的广泛科普后,已经深入人心。目前正在从AI深度机器学习的高潮中沉静下来。但是,各个AI分支的研究还将会不断深入,技术应用也正在被产业界深度挖掘,不断成功落地应用。科学家预计,第三次AI技术发展浪潮可能会从类脑AI技术的方向突破。人类大脑的奥秘亟待破解,AI技术分支中的知识体库、思维体系的基础研究也亟待加强。开发出有知识内涵、有思想意识、受人管控、能力强大的AI系统才是AI技术发展的终极目标。
参考资料:
1.IBMWatson,百度百科:https://baike.baidu.com/item/Watson/3754014?fr=aladdin
2.科普中国,知识库,百度百科:https://baike.baidu.com/item/%E7%9F%A5%E8%AF%86%E5%BA%93/217934?fr=aladdin
3.youzhouliu,残差学习,152层网络,微软夺冠2015ImageNet计算机视觉识别挑战,CSDN博客:https://blog.csdn.net/youzhouliu/article/details/50277721,2015.12.12
4.snow2know,百度、搜狗、讯飞同时宣布语音识别准确率达到97%,他们是怎么做到的?CSDN博客:https://blog.csdn.net/snow2know/article/details/53858131,2016.12.24
5.科学画报,AlphaGo战胜了李世石和柯洁,如今败给了“自己”,搜狐:https://www.sohu.com/a/199792158_170823,2017.10.23
6.曹纪乾,人工智能的五大核心技术,CSDN博客:https://blog.csdn.net/sergeycao/article/details/75254630,2017.7.17
7.智云科技传媒,PhotoShop更新AI智能抠图黑科技,整个抠图过程只需5秒?搜狐:https://www.sohu.com/a/219578766_653557,2018.1.29
8.TodayinHistory,历史上的今天,IBM深蓝超级计算机击败国际象棋世界冠军,搜狐:https://www.sohu.com/a/231176382_100170370,2018.5.11
9.引力空间站,英伟达做了一个超级逼真的人脸生成AI系统!搜狐:https://www.sohu.com/a/283227222_100095143,2018.12.21
10.豫见创客教育,2018年度AI(人工智能)十大热门事件盘点,搜狐:https://www.sohu.com/a/286668493_100222568,2019.1.7
11.云南信息报,电信诈骗的特点及原因分析,新浪网:https://t.cj.sina.com.cn/articles/view/1668928944/6379d5b002000dvza,2019.1.22
12.天极网,GoogleDuplex正式登陆苹果iPhone,同时适配更多安卓机型,百度:https://baijiahao.baidu.com/s?id=1629861394160161963&wfr=spider&for=pc,2019.4.4
13.人工智能学家,张钹院士:人工智能技术已进入第三代,CSDN博客:https://blog.csdn.net/cf2SudS8x8F0v/article/details/90986936,2019.6.5
14.梁梦麟,华为昇腾910AI芯片发布,这应该是目前性能最强的AI芯片,爱范儿:https://www.ifanr.com/1251420,2019.8.23
15.勇士学不会,阿里含光800芯片到底有多牛?知乎:https://www.zhihu.com/question/347692315/answer/835298105,2019.9.25
16.奇艺魔方格,机器人也学会单手解魔方了?OpenAI的仿人机器手Dactyl简介,哔哩哔哩:https://www.bilibili.com/video/av71483492,2019.10.17
17.AI报道,快讯!OpenAI仿人机器手Dactyl通过“自学习”完成单手解魔方,百度:https://baijiahao.baidu.com/s?id=1647721593698928015&wfr=spider&for=pc,2019.10.18
18.郭少悲,DeepFake入门了解,简书:https://www.jianshu.com/p/fdaf464f7f0e,2019.11.5
19.新智元,Deepfake有什么用?,知乎:https://www.zhihu.com/question/382367348/answer/1140725612,2020.4.9
20.星辰大海路上的种花家,黑科技DeepFake,上线五天就遭全球唾弃,这技术到底有多邪恶?搜狐:https://www.sohu.com/a/406281820_100267485,2020.7.7
21.宝珠道人,近两年,人工智能有哪些有趣的进展?知乎:https://www.zhihu.com/question/398324972,2020.7.16
22.太平洋电脑网,什么是GPT-3,它将如何影响人们目前的工作?百度:https://baijiahao.baidu.com/s?id=1672711452430921198&wfr=spider&for=pc,2020.7.20
23.桔了个仔,近两年,人工智能有哪些有趣的进展?知乎:https://www.zhihu.com/question/398324972/answer/1384698890,2020.8.5
24.机器之心Pro,清华张钹院士专刊文章:迈向第三代人工智能,百度:https://baijiahao.baidu.com/s?id=1680147176936442040&wfr=spider&for=pc,2020.10.10
25.视知TV,Deepfake到底有多可怕?哔哩哔哩:https://www.bilibili.com/video/av245980044,2020.12.31
26.460亿个晶体管!7nm工艺,寒武纪首颗AI训练芯片思元290量产,微信公众号【创芯老字号】,2021.1.21
清华大学:人工智能十年发展总结,中国进步神速,专利占全球七成
人工智能的十年总结,十大热门方向,中国进步惊人。
编辑|智东西内参
人工智能在过去十年中从实验室走向产业化生产,重塑传统行业模式、引领未来的价值已经凸显,并为全球经济和社会活动做出了不容忽视的贡献。
当前,人工智能已经迎来其发展史上的第三次浪潮。人工智能理论和技术取得了飞速发展,在语音识别、文本识别、视频识别等感知领域取得了突破,达到或超过人类水准,成为引领新一轮科技革命和产业变革的战略性技术。人工智能的应用领域也快速向多方向发展,出现在与人们日常生活息息相关的越来越多的场景中。
近日,清华大学科技情报大数据挖掘与服务系统平台AMiner发布了研究报告《人工智能发展报告2011-2020》,阐述人工智能过去十年取得的重要成果,并讨论了人工智能的未来发展蓝图,理论、技术和应用方面的重大变化与挑战。如果想收藏本文的报告,可以在智东西(公众号:zhidxcom)回复关键词“nc517”获取。
本期内参来源:清华大学
原标题:
《人工智能发展报告2011-2020》
作者:张淼等
01.
飞速发展的十年
1、论文发表情况
人工智能过去十年发展快速,从学术研究走向商业化。本报告专注于通过分析在国际顶级期刊和会议上的人工智能领域科研论文发表情况来研究该领域的成果产出。由下图可见,从2011年以来人工智能领域高水平论文发表量整体上呈现稳步增长态势,取得了很多科研成果。这些科研成果涵盖R-CNN算法、神经机器翻译的新方法等。
▲过去十年人工智能领域国际顶级期刊会议论文数量趋势
从高水平科研论文的国家分布来看,人工智能领域论文发表量居于前十的国家依次是美国、中国、德国、英国、日本、加拿大、法国、韩国、意大利和澳大利亚,如下图所示。美国和中国的高水平论文发表量明显高于其他国家,分别位居第一、二名,中国的论文量紧随美国之后。
▲过去十年人工智能领域高水平论文发表量前十国家
研究发现,各个国家的人工智能领域高水平科研论文发布具有以下特征。
(1)、开展跨国科研合作较多的国家是美国和中国
从论文的国际合作网络看,美国和中国的AI高水平论文发表均存在较多的跨国合作现象,如下图所示。其中,AI技术实力领先的美国所参与的高水平论文跨国合作最多,是各国的主要合作国家,过去十年,美国的33255篇AI高水平论文之中,出现过中国、英国、加拿大、德国、印度等30多个合作国家,合作国家数量最多;中国的跨国科研合作国家数量位居第二,在其22686篇AI高水平论文之中,出现了美国、加拿大、新加坡、英国、日本等20多个合作国家;英国和德国的AI高水平论文跨国合作国家数量均为18个。其余国家在AI高水平论文方面开展的跨国合作数量较少。
▲过去十年人工智能领域高水平论文发表国际合作国家分布
(2)、中美两国是对方AI领域的重要科研合作伙伴
在AI高水平论文发表方面,美国和中国均是对方的重要科研合作伙伴。过去十年,美国在其30多个合作国家之中,与中国合作的AI高水平论文数量占比最多,为18.53%。同时,中国在其20多个合作国家之中,与美国合作的论文数量最多,占比27.16%。可见,开展国际科研合作已成为中美两国AI研究成果产出的重要方式。
(3)、跨国科研合作可以提高合作本国AI研究成果的影响力
分析发现,美国的AI领域高水平论文平均引用率为44.99,中国的AI领域高水平论文平均引用率为31.88。相比而言,中国和美国合作论文的平均引用率达51.2,其影响力明显高于中国和美国各自论文的平均引用水平,这表明跨国合作的科研成果在世界人工智能研发领域的展示和交流几率大大增加。
2、获得图灵奖的人工智能技术
图灵奖(ACMA.M.TuringAward)是计算机界最负盛名、最崇高的一个奖项,有“计算机界的诺贝尔奖”之称。图灵奖是计算机协会(ACM)于1966年设立的奖项,专门奖励对计算机事业做出重要贡献的个人。其名称取自世界计算机科学的先驱、英国科学家、曼彻斯特大学教授艾伦·图灵(A.M.Turing)。
图灵奖获奖者必须是在计算机领域具有持久而重大的先进性的技术贡献,大多数获奖者是计算机科学家。第一位图灵得主是卡耐基梅隆大学的AlanPerlis(1966年),第一位女性获奖者是IBM的FrancesE.Allen(2006年)。
通过AMiner智能引擎,可以自动收集历年来图灵奖获得者及其学者画像信息(基本信息、研究兴趣等),以及该学者的论文和专著等信息。由于每年度的图灵获奖者一般在次年3月下旬由美国计算机协会(ACM)官方颁发,因此本报告统计了截至2020年颁发的近十年(2010-2019年)图灵奖得主数据。分析发现,图灵奖近十年授予领域具有如下特征。
(1)、十年中三次正式颁奖给人工智能领域
图灵奖颁发的领域,在一定程度上反映了计算机科学技术发展方向的缩影。数据显示,过去十年图灵奖分别授予给了计算理论、概率和因果推理、密码学、分布式和并发系统、数据库系统、万维网、计算机系统、深度神经网络和3D计算机图形学九个领域,具体如下图所示。从获奖内容、创新角度、研究领域等维度来看,图灵奖注重原始理论创新和学科交叉,具有科研优势积累现象。
过去十年的图灵奖有三次正式授予给人工智能领域。
第一次是2010年,LeslieValiant因对计算理论的贡献(PAC、枚举复杂性、代数计算和并行分布式计算)获得图灵奖,该成果是人工智能领域快速发展的数学基础之一。
第二次是2011年,因JudeaPearl通过概率和因果推理对人工智能做出贡献而颁奖;
第三次是2018年,深度学习领域三位大神YoshuaBengio、GeoffreyHinton和YannLeCun因为在概念和工程上的重大突破推动了深度神经网络成为计算机领域关键技术而荣获图灵奖。
Hinton的反向传播(BP)算法、LeCun对卷积神经网络(CNN)的推动以及Bengio对循环神经网络(RNN)的贡献是目前图像识别、语音识别、自然语言处理等获得跳跃式发展的基础。中国科学院张钹院士在《迈向第三代人工智能》一文中也提到这5位图灵奖得主在创建第二次AI中所做出的重大贡献。
▲2010-2020年图灵奖授予的计算机领域
(2)、人工智能领域获奖人数占据四分之一
由下图可见,过去十年,共有16位学者获得图灵奖。其中,包括5位人工智能领域学者获此殊荣,占比31%,这反映出人工智能在计算机学科中的地位已不容忽视。同时,人工智能领域图灵奖从初期的单独获奖者到近年来的共同获奖者,越来越呈现出高层次学者强强联合的研究趋势。
(3)、美国培养并拥有八成以上的图灵奖得主
过去十年的16位图灵奖获得者之中,有13位来自美国、2位来自英国、1位来自加拿大,如下图所示。在美国的13位图灵奖得主之中,有10位是在美国本国接受的全部高等教育、2位拥有美国和其他国家教育背景、仅1位没有美国教育背景。
其中,2011年获奖者JudeaPearl拥有以色列本科教育和美国纽约大学博士教育背景;2012年图灵奖得主SilvioMicali拥有意大利本科教育和美国加州伯克利大学博士教育背景。唯一没有美国教育背景的是2018年图灵奖得主YannLeCun,他仅有法国教育背景。八成以上图灵奖得主具有美国教育或工作背景的事实,反映出美国人工智能高层次人才培养的强势竞争力。
▲2010-2020年图灵奖得主所在国家及教育背景情况
(4)、欧洲培养的高层次人才中有三位被吸引到美国学习或工作并获图灵奖
从这些图灵获奖者的教育背景来看,美国与欧洲国家的学术交流非常多。YannLeCun拥有法国教育背景后到美国任职并获图灵奖;JudeaPearl和SilvioMicali分别从以色列和意大利被吸引到美国继续深造而拥有跨国双重教育背景,后来均到美国任职并在美国获得图灵奖。此外,英国的这两位图灵奖得主虽然均是在本国接受的高等教育并且获奖时都在本国,但都有过一些美国任职经历。
GeoffreyHinton博士毕业于英国爱丁堡大学,后来陆续在谷歌、卡内基梅隆大学、加州大学圣地亚哥分校等美国机构任职;TimBerners-Lee在英国牛津大学本科毕业后,也有过在麻省理工学院任职的经历。可见,美国的高等教育体系不仅培养的了自己本国的AI领域高端人才,而且从欧洲国家吸引和留住了多位领域精英。
(5)、仅加拿大图灵奖得主没有任何美国教育和任职经历
在这16位图灵奖获得者之中,仅有加拿大的YoshuaBengio在本国的麦吉尔大学接受了高等教育并在本国蒙特利尔大学任职,并于2018年因在深度神经网络概念和工程上的突破而获奖。这在一定程度上反映出加拿大在人工智能领域高层次人才培养和质量上较为成功。
(6)、图灵得主们在领域相关论文发表后需要平均等待37.1年之后才获奖
通过AMiner人才画像数据获取这些图灵奖得主所发表的第一篇与获奖理由相关主题的论文,计算得出该论文发表年份距离作者获得图灵奖时间,从而得到这些图灵得主的获奖时间长短,如下图所示。结果发现,图灵奖得主获奖时一般距离其首次发表获奖领域相关论文至少已经三十年以上,平均为37.1年。
其中,EdwinCatmull于2019年获得图灵奖,距离其在计算机图形学领域发表的最早论文Asystemforcomputergeneratedmovies已经过去了47年,等待获奖时间最久。而获奖等待时间最短的是TimBerners-Lee,他于1990年发表WorldWideWeb:ProposalforaHypertextProject论文,仅在26年后的2016年就因发明万维网、Web浏览器以及允许Web扩展的基本协议和算法获得图灵奖。
▲图灵奖得主的首篇领域论文发表距离获奖年份的时长
(7)、八成以上图灵得主获奖时已经度过了其科研论文高峰产出期
基于AMiner平台上各位图灵奖得主的论文数据和人物画像,分析发现,图灵奖得主一般会在获奖后保持原来的研究方向,但是他们的论文发表量却减少了。有80.1%的图灵得主在获图灵奖后的论文年均产出量低于其获奖前的年均论文产出量,如下图所示,这反映出他们在获得图灵奖时已经普遍过了其学术产出高峰时期。
▲2010-2020年图灵奖得主获奖前后的年均论文发表量
值得一提的是,YoshuaBengio,JudeaPearl和MichaelStonebraker三位学者是例外,他们在获得图灵奖之后的年均论文产出量较其获奖前均有不同程度的增加,分别增加了328.07%、49.53%和12.32%。其中,YoshuaBengio在2018年获得图灵奖后论文年均发表量激增特别明显,并在2019年发表96篇论文,达到其论文产出峰值,他的AMiner学术画像及年度论文发表量如下图所示。
▲2018年图灵奖获得者YoshuaBengio的AMiner学术画像
需要指出的是,部分图灵得主在获奖后的论文产出量减少除了其学术产出减少之外,还存在以下两个原因。
一是他们可能已不再全力进行学术研究,而是转向参与社会事业等,从而导致其获奖后的论文发表量减少。例如,WhitfieldDiffie在2015年因密码学的贡献获得图灵奖后,转向致力于促进信息安全和隐私权的保护;MartinHellman因密码学的贡献获得同年的图灵奖后,转向致力于研究国际安全与核武器削减。
二是也有少量图灵得主在发表相关论文后早已投身于工业界,例如,计算机图形学先驱EdwinCatmull在研究生毕业后就在卢卡斯、皮克斯等公司就职,早已离开学术界,曾担任Pixar动画和Disney动画的总裁,四次获电影Oscar奖(1993、1996、2001和2008),其AMiner学术画像及年度论文发表量如下图所示。
▲2019年图灵奖获得者EdwinCatmull的AMiner学术画像
3、媒体评选出的重大人工智能技术
自2001年起,《麻省理工科技评论》每年都会评选出当年的“十大突破性技术”。所评选出的技术榜单曾精准预测了脑机接口、智能手表、癌症基因疗法、深度学习等诸多热门技术的崛起,在全球科技领域具有举足轻重的影响力。
分析发现,媒体评出的人类突破性技术之中近30%与人工智能相关。通过分析挖掘2010-2020年《麻省理工科技评论》评选出当年的“十大突破性技术”,发现有32项项人工智能相关技术入选榜单,占比近30%,其中包括:2013年的深度学习、2014年的神经形态芯片、2016年的语音接口与知识分享型机器人、2017年的自动驾驶卡车与强化学习,2018年的流利对话的AI助手、给所有人的人工智能和对抗性神经网络、2019年的灵巧机器人,以及2020年的微型人工智能和人工智能发现分子。具体名单如下图所示。
▲2010-2020年入选《麻省理工科技评论》“十大突破性技术”榜单的人工智能相关技术
4、国际顶会顶刊最佳论文授予领域分析
人工智能领域顶级期刊和会议每年都会在众多学术研究论文之中,通过“双盲评审”,评选出最有新意和价值的研究论文作为最佳研究论文,并授予“BestPaper”奖项。每年大会的最佳论文奖一般分两类,一类是最佳研究论文(Researchtrack),另一类是最佳应用论文(Appliedtrack)。部分会议在每年选出多篇最佳论文(分列第一、二、三名),也有部分顶会每隔几年才会选出一篇最佳论文。
从过去十多年的经验来看,国际顶会历年的最佳研究论文都会对之后很多领域的研究有着开创性的影响。因此,不论是从阅读经典文献的角度,还是从学习最新研究成果的角度来说,分析和探讨每年的最佳研究论文都极具价值。
本部分收集整理了2011-2020年期间的人工智能领域国际顶级会议最佳论文奖项第一名的全部论文(对于不区分名次的最佳论文则全部收录),再对这些论文所属领域进行分析。统计发现,过去十年荣获“最佳论文”奖项的论文来自34个国际顶会、共计440篇,其中,researchtrack最佳论文409篇,占比93%。
各会议最佳论文量的具体分布如下表所示,FOCS、IEEEVIS、ISSCC等最佳论文数量较多主要是因为该会议每年颁发3篇杰出论文奖(OutstandingPaperAward)且不区分先后名次。ICASSP等会议最佳论文量较少主要是由于存在缺失数据。
▲2011-2020年人工智能领域国际顶级会议最佳论文授予量分布(单位;篇)
从所属细分研究领域来看,这些最佳论文覆盖了机器学习、计算机视觉、自然语言处理、机器人、知识工程、语音识别、数据挖掘、信息检索与推荐、数据库、人机交互、计算机图形学、可视化、安全与隐私、计算机网络、计算机系统、计算理论、经典AI、芯片技术等18个子领域。
(1)、顶会最佳论文奖呈现出较多跨领域授予现象
总体而言,尽管这些国际顶级会议将大部分的最佳论文奖都授予给了本会议所属的AI子领域,但是授予非本会议领域的最佳论文数量占比较高,达22.3%。其中,WSDM是数据挖掘领域重要国际会议,在它授予的最佳论文奖之中,有90.9%的最佳论文被授予给非数据挖掘领域的论文,在所有会议中占比最高。其次,KDD会议将88.9%最佳论文奖授予给非数据挖掘领域的论文,WWW会议将63.6%的最佳论文奖授予给非信息检索与推荐领域的论文。各个会议最佳论文授予情况具体如下表所示。
▲2011-2020年人工智能领域国际顶级会议最佳论文授予其他AI领域比例
(2)、信息检索与推荐、机器学习和计算理论出现较多的跨领域授予
从跨领域授予最佳论文奖的整体数量来看,信息检索与推荐、机器学习和计算理论是获得最佳论文奖项数量较多的三个领域,占比均超过10%,详细情况如下图所示。这反映出这三个子领域的跨领域研究成果所获的专业认可度较高,在一定程度上促进了相关技术在多个AI子领域的快速发展和进步。
▲人工智能领域国际顶级会议最佳论文奖跨AI子领域授予分布图
从来源会议来看,信息检索与推荐领域最佳论文除了被RecSys、SIGIR和WWW本领域会议最多授予之外,也较多被数据挖掘领域会议WSDM、数据库领域的SIGMOD和VLDB授予最佳论文奖,如下图所示。
▲信息检索与推荐领域最佳论文跨领域授予会议示例
(3)、机器学习技术成果集中在2016-2018年获得较多奖项认可
过去十年顶会最佳论文授予技术领域的年度趋势如下图所示,其中,色块颜色代表该项技术在某项会议所被授予的最佳论文数量,色块颜色越深表示论文数量越多。
从最佳论文奖被授予领域的年度趋势来看,机器学习领域过去十年内最佳论文在2016年被授予最多,为9篇,其次是2017和2018年,相关最佳论文数量均为8篇。从来源会议来看,共有14个顶会将最佳论文奖分别授予给机器学习领域。其中,最佳论文奖授予量较多的两大会议是InternationalConferenceonMachineLearning(ICML)和InternationalConferenceonLearningRepresentations(ICLR),分别为13和12篇。
▲人工智能领域国际顶刊顶会最佳论文授予领域年度趋势
4、安全与隐私领域最佳论文授予数量呈现增多趋势
随着人工智能快速发展和应用,许多领域开始注重技术的安全与隐私性。这体现在逐年增多的领域最佳论文数量上。尤其是2014年之后,安全与隐私领域年度最佳论文数量均超过5篇。
过去十年来,CCS、ICML、OSDI、S&P、SIGCOMM和WWW等顶会均曾授予过安全与隐私领域的最佳论文奖。安全与隐私的最佳论文授予主要来自于IEEESymposiumonSecurityandPrivacy(S&P)和ACMConferenceonComputerandCommunicationsSecurity(CCS)两大会议。
5、国际顶会顶刊领域高影响力论文分析
论文引用量是衡量一个科研文献被业界认可度的标志,也是该文献影响力的重要体现。本部分针对人工智能国际顶会顶刊2011-2020年期间的所发表论文的引用量特征及所属领域进行分析。结果分析发现,某一学术会议中引用量最高的论文未必是该会议授予最佳论文奖的论文,反之亦然。
分析还发现,人工智能不同子领域论文的最高引用量的量级跨度很大。如下图所示,2011-2020年期间人工智能国际顶会顶刊最高引用量前十论文研究以机器学习领域为首,其次是计算机视觉领域研究论文。机器学习和计算机视觉领到域论文的引用量级均达到25万次以上,明显高于其他子领域最高引用论文的引用量。在所有子领域之中,知识工程领域论文的引用量级最少,不足于机器学习领域论文引用量的2%。
▲2011-2020年人工智能国际顶会顶刊各子领域最高引用量前十论文的引用量分布
具体来看,人工智能各个子领域在过去十年中出现在国际顶级会议期刊上的最高影响力论文相关信息如下表所示。其中,计算机视觉领域最高影响力论文是2016年CVPR上、以FacebookAIResearch何恺明为第一作者的“DeepResidualLearningforImageRecognition”文章,其引用量已超过6万。
机器学习领域引用量最高的论文是发表在2015年ICLR会议上的“Adam:AMethodforStochasticOptimization”,该文是由GoogleBrain的DiederikP.,Kingma和加拿大多伦多大学的助理教授JimmyLeiBa联合发表,目前引用量将近6万。
▲2011-2020年人工智能子领域最高影响力论文
机器学习领域,影响力排名前10论文的引用率都超过万次,且半数以上论文引用率超过2万次,如表4-6所示。从论文研究主题来看,这这10篇最高影响力论文全部都是与深度学习相关的。从论文来源来看,这10篇最高影响力论文之中,有5篇来自NeurIPS、3篇来自ICLR、2篇来自ICML。
居于首位的是2015年ICLR会议上由GoogleBrain的DiederikP.,Kingma和加拿大多伦多大学的助理教授JimmyLeiBa联合发表的“Adam:AMethodforStochasticOptimization”论文。影响力排名第二位的是Apple公司研究员IanJ.Goodfellow发表在NeurIPS2014上的一篇论文“GenerativeAdversarialNets”,该文也是GANs的开山之作。影响力排名第三位的论文是Facebook科学家TomasMikolov发表在NeurIPS2013上的“DistributedRepresentationsofWordsandPhrasesandtheirCompositionality”。
▲2011-2020年机器学习领域最高影响力论文前十
计算机视觉领域,最高影响力前十论文如表4-7所示。其中,最高引用的论文是发布于2016年CVPR上、以FacebookAIResearch何恺明为第一作者的“DeepResidualLearningforImageRecognition”文章,其引用量已超过6万。
这篇论文也荣获了当年CVPRBestPaper奖项,联合作者还包括旷视科技的研究员张祥雨、首席科学家与研究院院长孙剑,以及当时就职于Momenta任少卿。该文是一篇非常经典的神经网络的论文,主要通过构建了一种新的网络结构来解决当网络层数过高之后更深层的网络的效果没有稍浅层网络好的问题,并且做出了适当解释以及用ResNet残差网络解决了问题。
▲2011-2020年计算机视觉领域最高影响力论文前十
自然语言处理领域,过去十年中最高影响力前十论文的具体信息如下表所示。其中,最高引用量论文是Google研究员JeffreyPennington在2014年EMNLP会议发表的论文“Glove:GlobalVectorsforWordRepresentation”,这篇论文提出的单词表示模型是通过仅训练单词-单词共现矩阵中的非零元素,而不是整个稀疏矩阵或大型语料库中的单个上下文窗口,来有效地利用统计信息。该模型产生一个具有有意义子结构的向量空间,在相似性任务和命名实体识别方面优于相关模型。
▲2011-2020年自然语言处理领域最高影响力论文前十
6、过去十年十大人工智能研究热点
过去十年十大AI研究热点分别为:深度神经网络、特征抽取、图像分类、目标检测、语义分割、表示学习、生成对抗网络、语义网络、协同过滤和机器翻译。
▲AMiner评选出的近十年十大AI研究热点
(1)、深度神经网络
深度神经网络是深度学习的基础,又被称为深度前馈网络(DFN)、多层感知机(Multi-Layerperceptron,MLP),可以理解为是有很多隐藏层的神经网络。深度神经网络可以在没有大量标记数据的情况下解决问题。代表算法包括卷积神经网络、循环神经网络、递归神经网络等。
深度神经网络的被引用量保持了较长时间的稳定平稳增长;深度卷积神经网络技术则于2014年开始获得更多引用。目前,深度神经网络(DNN)是许多人工智能应用的基础,从自动驾驶汽车、癌症检测到大型游戏等。在这许多领域中,DNN实现了超越人类的准确率。
数据显示,过去十年中,有5405篇以卷积神经网络为研究主题的论文在人工智能国际顶会顶刊论文中发表,其总引用量达299729,并且在这些顶会顶刊论文引用量排名前十的论文中出现过125次。该技术的最终指数评分为98.16,位列过去十年最热门AI研究主题之首。
(2)、特征抽取
特征抽取(FeatureExtraction)热门是信息检索与推荐中的一项技术,专指使用计算机提取一组测量值中属于特征性的信息的方法及过程,并将所抽取出的有效实体信息进行结构化存储。目前特征抽取已引入机器学习、深度学习、神经网络技术,其中,神经网络计算已应用于图片特征抽取。
针对某个特定图片,通过卷积神经网络对图片进行特征抽取得到表征图片的特征,利用度量学习方法如欧式距离对图片特征进行计算,对图片距离进行排序,得到初级检索结果,再根据图片数据的上下文信息和流形结构对图像检索结果进行重排序,从而提高图像检索准确率,得到最终的检索结果。
数据显示,过去十年中,有1747篇以特征抽取为研究主题的论文在人工智能国际顶会顶刊论文中发表,其总引用量达95205,并且在这些顶会顶刊论文引用量排名前十的论文中出现过8次。该技术的最终评分为21.51,位列过去十年AI研究热点亚军。
(3)、图像分类
图像分类(ImageClassification)是指计算机利用算法从给定的分类集合中给某个特定图像正确分配一个标签的任务,其目标是将不同的图像划分到不同的类别中,并实现最小的分类误差,较多应用于计算机视觉、信息检索与推荐领域。2012年,加拿大认知心理学家和计算机科学家GeoffreyEverestHinton的博士生AlexKrizhevsky在ILSVRC将深度学习用于大规模图像分类中并提出了CNN模型,其计算效果大幅度超越传统方法,获得了ILSVRC2012冠军,该模型被称作AlexNet。从AlexNet之后,涌现了一系列CNN模型,不断地在ImageNet上刷新成绩。目前的深度学习模型的识别能力已经超过了人眼。
数据显示,过去十年中,有612篇以图像分类为研究主题的论文在人工智能国际顶会顶刊论文中发表,其总引用量达50309,并且在这些顶会顶刊论文引用量排名前十的论文中出现过16次。该技术的最终评分为14.14,位列过去十年最热门AI研究主题第三名。
(4)、目标检测
目标检测(ObjectDetection)作为计算机视觉和图像处理领域一个分支,是指利用图像处理与模式识别等领域的理论和方法,检测出数字图像和视频中存在的特定类别的目标对象,确定这些目标对象的语义类别,并标定出目标对象在图像中的位置。对象检测是对象识别的前提,具有很大发展潜力。
对象检测已经有许多有用有趣的实际应用,如人脸识别、行人检测、视觉搜索引擎、计数、航拍图像分析等。深度学习模型在图像分类任务中碾压了其他传统方法。很多对象检测的新方法和新应用推动了深度学习最前沿的科技发展。
过去十年中,有472篇以目标检测为研究主题的论文在人工智能国际顶会顶刊论文中发表,其总引用量达49602次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过13次。该技术的最终评分为12.73,位列最热门AI研究主题第四名。
(5)、语义分割
语义分割(SemanticSegmentation)是让计算机根据图像的语义进行分割,判断图像中哪些像素属于哪个目标。近年来,许多语义分割问题正在采用深度学习技术来解决,最常见的是卷积神经网络,在精度上大大超过了其他方法以及效率。目前语义分割的应用领域主要有:地理信息系统、无人车驾驶、医疗影像分析和机器人等领域。
过去十年中,有275篇以语义分割为研究主题的论文在人工智能国际顶会顶刊论文中发表,其总引用量达27893次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过23次。该技术的最终评分为12.01,位列最热门AI研究主题第五名。
(6)、表示学习
表示学习(RepresentationLearning),是指将原始数据转换成能够被机器学习的一种深度学习技术。它能够从复杂的原始数据中提炼有效特征,剔除无效或者冗余信息,形成可用的数据表示。在知识表示学习中,词嵌入(WordEmbedding)是自然语言处理的重要突破之一,它可以将词表示为实数域向量,进而为机器学习和深度学习提供模型训练的基础。
近些年很多专家和学者利用词嵌入的表示学习原理进行相关领域的研究,主要的表示方法包括Word2Vec、One-hot、词共现等。这些方法已经成为当下人工智能技术应用的基础,为机器学习提供了高效的表示能力。
过去十年中,有711篇以表示学习为研究主题的论文在人工智能国际顶会顶刊论文中发表,其总引用量达49892次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过8次。该技术的最终评分为11.88,位列最具影响力AI技术第六名。
(7)、生成对抗网络
生成对抗网络(GenerativeAdversarialNetworks,GAN)是用于无监督学习的机器学习模型,由IanGoodfellow等人在2014年提出。由神经网络构成判别器和生成器构成,通过一种互相竞争的机制组成的一种学习框架。GAN功能强大,学习性质是无监督的,也不需要标记数据。
传统的生成模型最早要追溯到80年代的RBM,以及后来逐渐使用深度神经网络进行包装的AutoEncoder,然后就是现在的生成模型GAN。GAN具有大量的实际用例,如图像生成、艺术品生成、音乐生成和视频生成。此外,它还可以提高图像质量,并且完成图像风格化或着色、面部生成以及其他更多有趣的任务。
过去十年在人工智能国际顶会顶刊论文中发表有362篇以生成对抗网络为研究主题的论文,其总引用量达24536次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过22次。该技术的最终评分为11.44,位列最热门AI研究主题第七名。
(8)、语义网络
语义网络(SemanticNetwork)是一种以网络格式表达人类知识构造的形式,是人工智能程序运用的表示方式之一,相关研究主要集中在信息检索与推荐、知识工程领域。语义网络是一种面向语义的结构,它们一般使用一组推理规则,规则是为了正确处理出现在网络中的特种弧而专门设计的。语义网络可以深层次地表示知识,包括实体结构、层次及实体间的因果关系;无推理规律可循;知识表达的自然性可以直接从语言语句强化而来。
过去十年在人工智能国际顶会顶刊论文中有1192篇以语义网络为研究主题的论文发表,总引用量达44897次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过2次。语义网络技术的最终评分为10.60,位列最热门AI研究主题第八名。
(9)、协同过滤
协同过滤(CF)是推荐系统使用的一种技术,通过收集来自多个用户的偏好、兴趣、评价标准等用户行为数据来过滤信息,并自动预测(过滤)用户兴趣的方法,为用户提供有针对性的推荐及其所需信息。大多数协同过滤系统都应用基于相似度索引的技术。协同过滤是解决信息超载问题的一个有效办法。无论是基于用户-用户的协同过滤,还是项目-项目的协同过滤,都有效地提高了用户信息的使用效率。
过去十年在人工智能国际顶会顶刊论文中有289篇以协同过滤为研究主题的论文,其总引用量达36681次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过12次。该技术的最终评分为9.98,位列最热门AI研究主题第九名。
(10)、机器翻译
机器翻译(MachineTranslation),又称为自动翻译,是利用计算机把一种自然源语言转变为另一种自然目标语言的过程,通常指自然语言之间句子和全文的翻译。它是自然语言处理(NaturalLanguageProcessing)的一个分支,与计算语言学(ComputationalLinguistics)、自然语言理解(NaturalLanguageUnderstanding)之间存在密不可分的关系。
机器翻译是人工智能的终极目标之一,其核心语言理解和语言生成是自然语言处理的两大基本问题。近几年来,随着深度学习技术的发展,神经机器翻译取得了巨大进展,其生成的译文接近自然语句,成为了主流语言学习模型。
过去十年在人工智能国际顶会顶刊论文中发表有389篇以机器翻译为研究主题的论文,其总引用量达23119次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过14次。该技术的最终评分为8.84,成为AI研究热点第十名。
02.
AI领域高层次人才分析
1、全球AI领域高层次人才
过去十年,全球人工智能发展迅速。中国、美国、欧盟、英国、德国等国家纷纷从战略上布局人工智能,加强顶层设计和人才培养。本报告数据显示,全球人工智能领域学者数量共计155408位,覆盖120多个国家,主要集中在北美洲、欧洲、东亚地区。
人工智能领域论文发表量反映了一个国家在领域的科研实力。在AI领域论文发表量TOP10的国家之中,美国、中国和德国的论文产出量分别位前三名,其余国家(英国、加拿大、日本、法国、澳大利亚、韩国和新加坡)领域论文产出量均在2万篇以下。
其中,美国在AI领域的论文发表数量和人才数量都位于全球第一,有近四成的全球AI领域论文产出是来自美国,并且美国AI学者数量约占全球领域学者总量的31.6%。
中国在人工智能领域的论文发表数量(25418篇)和人才数量(17368位)仅低于美国,同时,大幅领先于其他国家。这反映出中国近年来发布的从产业发展、教育等各个方面支持人工智能发展的一系列支持政策,以及不断加强人才培养和补齐人才短板的行动已见成效。
从子领域的领先国家来看,美国在人工智能领域具有明显的科研产出优势,在几乎所有子领域的论文产出量均居于全球首位。中国的AI科研产出水平在自然语言处理、芯片技术、机器学习、信息检索与挖掘等10多个子领域都紧随美国之后,并且,在多媒体、物联网领域的论文产出量超过美国、居于全球第一;而在人机交互、知识工程、机器人、计算机图形、计算理论领域,中国还需努力追赶。
AI高层次学者是指入选AI2000榜单的2000位人才。由于存在同一学者入选不同领域的现象,经过去重处理后,AI高层次学者共计1833位。从这些高层次学者分布看,如下图所示,AI领域全球高层次学者覆盖全球37个国家,主要集中在北美洲的美国地区;欧洲中西部也有一定的高层次学者分布;亚洲的高层次人才主要分布于中国、新加坡及日韩等地区;其他诸如南美洲、非洲等地区的高层次学者数量稀少。
▲全球人工智能领域高层次学者分布
从国家角度看AI高层次学者分布,美国AI高层次学者的数量最多,有1244人次,占比62.2%,超过总人数的一半以上,且是第二位国家数量的6倍以上。中国排在美国之后,位列第二,有196人次,占比9.8%。德国位列第三,是欧洲学者数量最多的国家;其余国家的学者数量均在100人次以下。人工智能领域高层次学者人数TOP10的国家如下图所示。
▲人工智能领域高层次学者数量TOP10国家
总体来看,全球范围内,美国和中国的机构在人工智能领域的论文产出和学者数量较多,占据了AI领域论文量排名前10机构的全部席位。从AI高层次人才分布看,全球AI高层次人才隶属于各个国家的高等院校或高科技公司的科研部门。
如下图所示,全球人工智能领域高层次学者量TOP10机构之中,位居首位的是美国的谷歌公司,拥有185人,也是唯一一家高层次学者数过百的机构;从国家分布来看,清华大学是唯一入选TOP10的中国机构,其余均为美国机构,且美国机构高层次学者总体人数遥遥领先。
▲全球人工智能领域高层次学者量TOP10机构
从子领域论文量来看,美国的大学和科技机构在AI各个细分方向上的发展较为均衡,且在自然语言处理、芯片技术、机器学习、信息检索与挖掘、人机交互等10多个子领域的发展居于全球领先席位。这反映出美国在人工智能领域的顶级实力。
中国的AI机构在语音识别、经典AI、计算机网络、多媒体、可视化和物联网等领域实力较强,进入全球先进行列。这些机构主要是位于北京的清华大学、中科院和北京邮电大学,以及浙江大学。
2、中国AI领域高层次人才
过去十年,我国人工智能发展迅猛。2017年,人工智能首次被写入全国政府工作报告,我国确定新一代人工智能发展三步走战略目标,并将人工智能上升为国家战略层面。本报告数据显示,我国人工智能领域学者数量共计17368位,覆盖100多个国内城市。从地域分布来看,我国AI人才主要集中在京津冀、长三角和珠三角地区。
国内AI领域高层次人才也主要分布在京津冀、长三角和珠三角地区,如下图所示。其中,京津冀地区(主要是北京市)在AI领域的高层次人才数量最多。长三角地区也有较多的AI高层次人才分布。相比之下,内陆地区领域高层次人才较为缺乏。在学者分布地图中,颜色越深,表示学者越集中;颜色越浅,表示学者越稀少。
▲我国人工智能领域高层次人才的省市分布图
从AI高层次学者分布来看,北京仍是拥有AI高层次学者数量最多的国内城市,有79位,占比45.4%,接近于国内AI高层次人才的一半,如下图所示。北京作为政治中心、文化中心、国际交往中心、科技创新中心具有先天优势,拥有数量众多的AI企业和多所知名高校和研究机构,北京的高水平AI论文发表量和高层次学者量明显领先于其他国内城市。同时,从子领域发展来看,北京在AI各个细分方向上的发展较为均衡,相关论文产出量均居于全国领先位置。
▲人工智能领域高层次学者数量TOP10的中国城市
国内人工智能领域研究领先的机构主要以北京、香港、杭州、上海等地的高等院校为主。北京在人工智能领域的资源优势,该城市拥有清华大学、北京大学、中国科学院等知名高校。杭州和香港的机构也处于AI子领域研究前列,主要由于前者拥有阿里巴巴和浙江大学,后者则因其香港科技大学和香港中文大学等实力高校。
在国内机构之中,北京的清华大学不仅拥有AI领域学者数量最多,而且所拥有的领域高层次人才数量也居于国内首位,有27位。国内高层次AI人才基本都隶属于高校。香港中文大学、浙江大学和中国科学院在人工智能领域的高层次学者数量分别为16、14和11位。其他的国内机构所拥有的AI领域高层次人才数量均不足十位,如下图所示。
▲人工智能领域高层次学者数量TOP10的中国机构
中国AI领域高层次人才培养从2018年起开始重点发展,主要由高校通过成立AI学院研究院立、设立AI专业的方式进行培养。教育部在《高等学校人工智能创新行动计划》(教技〔2018〕3号)中提出,要加强人工智能领域专业建设,形成“人工智能+X”复合专业培养新模式。
到2020年建设100个“人工智能+X”复合特色专业,建立50家人工智能学院、研究院或交叉研究中心,并引导高校通过增量支持和存量调整,加大人工智能领域人才培养力度。到2020年,高校要基本完成新一代人工智能发展的高校科技创新体系和学科体系的优化布局。到2030年,高校要成为建设世界主要人工智能创新中心的核心力量和引领新一代人工智能发展的人才高地。
教育部于2019年3月颁布《关于公布2018年度普通高等学校本科专业备案和审批结果的通知》,将人工智能专业列入新增审批本科专业名单,专业代码为080717T(T代表特设专业),学位授予门类为工学。在此之前,国内没有高校在本科阶段设置人工智能专业。
2020年2月,教育部颁布《关于公布2019年度普通高等学校本科专业备案和审批结果的通知》。统计结果显示,人工智能方面,本次全国范围内获得人工智能专业首批建设资格的共有180所,相比2018年的35所,增加414%,反映出人工智能专业的热度攀升。
截至目前,国内共有215所高校成立“人工智能”本科专业。这些高校之中,有60所双一流大学(占比28%),其他155所为普通本科院校。
从地域分布看,2019年度新增人工智能专业较多的省份依次是山东14所、江苏13所、北京11所、安徽10所、河南10所、四川10所,其余省份新增人工智能专业的高校数量均不足10所。但这些数字加起来占全国高校总量比例仍然较小,高校人工智能本科教育仍处于起步和发展阶段。
在AI人才紧缺,国家政策推动AI发展趋势等因素影响下,相比于建设人工智能专业,很多高校更愿意设立一个人工智能研究独立学院。截至2019年6月,至少有38所高校设立了独立人工智能学院,全面开展本科阶段、研究生阶段的教育,并且在2019年开始以人工智能专业招收本科生。
据统计,截止到2019年年底,我国已经有66所高校成功建设人工智能学院、研究院、研究中心或研究所,超额完成了教育部在《高等学校人工智能创新行动计划》中强调的到2020年在全国高校中建立50家人工智能学院、研究院或交叉研究中心的目标。
总之,中国各大高校设立人工智能一级学科、建立人工智能学院,有助于精准布点人工智能相关专业以满足国家和区域的产业发展需求,有助于加快建设一流人才队伍和高水平创新团队、进一步推动国际学术交流与合作、专业和教材建设,提高人才培养质量,推动科技成果转化。
03.
人工智能专利分析
专利是创新成果的应用表现形式。本部分将通过人工智能领域专利分析,挖掘该技术的创新应用情况。以墨创全球专利数据库作为数据来源,使用行业专家和相关技术领域专利审查专家共同给出的人工智能领域关键词在标题和摘要中进行检索,搜索时间范围限定为2011-2020年。
专利数据分析发现,随着核心算法的突破、计算能力的迅速提升以及海量数据的支撑,过去十年的人工智能专利申请量呈现逐渐上升态势。
1、全球AI专利分析
全球范围内,过去十年人工智能领域的专利申请量521264,总体上呈逐年上升趋势,如下图所示。
▲全球人工智能专利申请量年度变化趋势
全球AI专利申请数量排名领先的国家/地区如下图所示。从图中可以看出,目前,全球人工智能专利申请集中在中国、美国、日本、韩国。其中,中国和美国处于领先地位,遥遥领先其他国家。中国专利申请量为389571,位居世界第一,占全球总量的74.7%,是排名第二的美国的8.2倍。
▲全球AI专利申请量Top10国家
过去十年,全球人工智能专利申请之中,将近一半的申请人是来自于企业。高校和研究所的相关申请量共计约两成。
▲全球AI专利申请类型分布
人工智能专利申请量前十的机构集中在日本、中国、韩国和美国。其中,日本的佳能是一家致力于图像、光学和办公自动化产品的公司,该公司的绝大多数专利都与成像有关,申请量最高的人工智能功能应用类别是计算机视觉。美国IBM公司的专利申请很多都与IBM的自然语言处理和机器学习技术有关。中国的国家电网的专利申请多与电网控制、配电利用网络、风电场、绿色能源等领域的人工智能开发有关。
▲全球AI专利申请人排名TOP10
2、中国AI专利分析
过去十年,中国人工智能领域的专利申请量389571,约占全球申请量的74.7%。总体上,国内的人工智能相关专利申请量呈逐年上升趋势,并且在2015年后增长速度明显加快,如下图所示。
▲中国人工智能专利申请量年度趋势
中国各省市AI专利申请数量的分布情况如下图所示。从图中可以看出,广东省的AI专利申请量以72737位居第一,比排名第二的北京市(50906)多出42.8%,具有突出优势。前十名的省份主要分布在东部、中部、西部等地区,分布较为均衡,但是以东部省市居多,江浙沪三省市均位居前五名。这与这些地区的经济水平、发展程度、科研投入及知识产权保护等因素密切相关。
▲全国AI专利申请量TOP10省份
中国AI专利申请数量排名前十的机构如下图所示,包括5家企业和5所高校,主要分布在广东、北京、浙江和四川。目前中国在AI专利领域的创新主要还是依靠高科技互联网企业和高校科研机构等方面的共同努力。国家电网专利申请量最多,其次是腾讯科技,体现出这两家企业在AI领域的创新能力比较突出,对相关技术领域的引领作用较强。
▲中国AI专利申请量TOP10机构
04.
未来机遇与挑战
1、未来发展机遇
目前,全球已有美国、中国、欧盟、英国、日本、德国、加拿大等10余个国家和地区纷纷发布了人工智能相关国家发展战略或政策规划,用于支持AI未来发展。这些国家几乎都将人工智能视为引领未来、重塑传统行业结构的前沿性、战略性技术,积极推动人工智能发展及应用,注重人工智能人才队伍培养。这是AI未来发展的重要历史机遇。
美国:指定AI研究为政府优先事项并调入更多支持资金和资源。美国高度重视人工智能全面发展,包括立法、研发投资、人才培养等多个方面纷纷给予支持。2016年,美国国家科学技术委员会(NSTC)发布《国家人工智能研发战略计划》全面布局人工智能发展。与此同时,美国总统办公室发布报告《为未来人工智能做好准备》,以应对人工智能带来的潜在风险,以及《人工智能、自动化与经济报告》,强调人工智能驱动的自动化对经济发展的影响。
2018年,美国白宫首次将人工智能指定为政府研发的优先事项,并且成立人工智能特别委员会,旨在协调联邦政府各机构之间人工智能研发优先事项,并向白宫提出行动建议,以确保美国人工智能技术的领导地位。美国国防部高级研究项目局宣布投资20亿美元开发下一代人工智能技术。美国国会两院讨论包括《人工智能未来法案》《人工智能就业法案》和《国家安全委员会人工智能法案》等法案。五角大楼成立了“联合人工智能中心”,确保国防部对人工智能相关数据信息的高效利用。
2019年,美国白宫科学和技术政策办公室(OSTP)发布了由总统特朗普签署的《美国人工智能倡议》,将人工智能的重要性上升到美国经济安全和国家安全的层面,要求调配更多联邦资金和资源转向人工智能研究,并呼吁美国主导国际人工智能标准的制定,开展人工智能时代美国劳动力培养的研究。白宫还对《国家人工智能研发战略计划》进行了更新,确定了联邦投资于人工智能研发的优先事项。
美国防部网站公布《2018年国防部人工智能战略摘要——利用人工智能促进安全与繁荣》,并成立联合人工智能中心(JAIC),旨在加快人工智能快速赋能关键作战任务,统筹协调人工智能研发项目,积极维持美国在AI方面的战略地位。同年,国防授权法案批准设立人工智能国家安全委员会,该委员会旨在全面审查、分析人工智能技术及系统;商务部成立白宫劳动力委员会,以帮助美国储备人工智能等新兴科技发展所需的人才;国家科学基金会持续资助人工智能基础研究领域。
欧盟:重视并推动AI发展中的伦理和安全理念。欧盟在人工智能发展战略中坚持推行以人为本的理念,在2018年发布了《欧盟人工智能战略》,推动欧盟人工智能领域的技术研发、道德规范制定以及投资规划,并计划在2020年底至少投入200亿欧元。随后,欧盟宣布在“地平线2020”研究与创新项目中对人工智能研发投入15亿欧元的专项资金,将资助创建欧洲人工智能生态系统的支撑平台。
欧盟专门设立了高级别人工智能专家组(AIHLEG),就人工智能的投资和政策制定提出建议,为人工智能的道德发展制定指导方针。该专家组制定了《可信赖的人工智能道德准则草案》,提出实现可信赖人工智能的道德准则和具体要求,包括数据保护和数据透明度等问题。该草案是欧盟为增加政府和私营部门人工智能领域合作的提出的三大战略之一,三大战略包括:增加政府和私营部门对人工智能的投资、为人工智能可能引发的社会和经济变革做好准备、建立适当的人工智能道德和法律框架。
此外,欧盟成员国还于2018年签署了《人工智能合作宣言》,就人工智能可能引发的社会、经济、伦理道德和法律等重要问题开展合作,确保欧洲在人工智能研发和应用上具有强大竞争力。随后,又发布《促进人工智能在欧洲发展和应用的协调行动计划》,提出设计伦理和设计安全两大关键原则,旨在使欧盟成为发展前沿、符合道德伦理、安全的人工智能技术的世界领先地区,强调将通过以人为本的方式促进人工智能技术发展。
2019年,欧盟启动了AIFOREU项目,建立人工智能需求平台、开放协作平台,整合汇聚21个成员国79家研发机构、中小企业和大型企业的数据、计算、算法和工具等人工智能资源,提供统一开放服务。此外还发布了《人工智能伦理准则》,以提升人们对人工智能产业的信任。
英国:不断加大政策、资金、人才和国际合作方面的布局力度。英国政府在2017年发布的《产业战略:建设适应未来的英国》中,确立了人工智能发展的四个优先领域:将英国建设为全球AI与数据创新中心;支持各行业利用AI和数据分析技术;在数据和人工智能的安全等方面保持世界领先;培养公民工作技能。随后,发布了《在英国发展人工智能》,建议建立人工智能和数据科学的艾伦·图灵研究所,旨在与其他公共研究机构建立合作,统筹协调针对人工智能研究的计算能力。
2018年,英国政府发布《产业战略:人工智能领域行动》,这是英国政府和产业界做出的首份发展人工智能的承诺,将采取切实行动推进人工智能发展,促进英国人工智能和数字驱动的经济蓬勃发展。英国政府在《人工智能领域行动》等多个人工智能方面的政策文件中,提出政府提高研发经费投入,优先支持关键领域的创新等措施。
这些举措包括:未来10年,英国政府将研发经费(包括人工智能技术)占GDP的比例提高到2.4%;2021年研发投资将达125亿英镑;从“产业战略挑战基金”中拨款9300万英镑,用于机器人与AI技术研发等。英国政府也积极推出针对初创企业的激励政策。
近年来,英国政府不断加大政策、资金、人才、国际合作等方面的布局力度。在政策方面,据英国政府2018年推出的《工业战略:人工智能产业政策》报告显示,过去3年英国发布了包括人工智能产业在内的工业战略白皮书、人工智能产业政策等各项措施,并成立了人工智能发展委员会、数据伦理与创新中心、人工智能发展办公室及工业战略挑战基金等相关机构,以推动人工智能的发展。在资金方面,英国规划制定了金额超9亿英磅(约78.7亿元人民币)的一揽子人工智能产业扶持计划,还将投资谷歌、亚马逊、“人工智能元素”(ElementAI)以及“慧与科技”(HPE)等一系列跨国科技公司。
2019年2月,英国政府宣布投资1300万英镑(约1.13亿元人民币)支持40个人工智能及数据分析项目,旨在提升生产力,改善英国的专业服务。在人才方面,自2017年起,英国计划将在4年内培育8000名计算机科学教师;未来7年,通过培训让5000名学生具备多样化的数字技术;支持新增450个与人工智能相关的博士点;加大包括人工智能人才在内的海外特殊人才引进力度,每年增加1000名至2000名人才引进。
在国际合作方面,2018年7月,英国与法国签订五年协议,在人工智能等数字产业领域加强双方高端科研中心的合作;2019年1月,英国决定与日本在机器人、数据等领域加强深度合作。
德国:用AI+工业4.0打造“人工智能德国造”品牌。德国政府早在2013年提出的“工业4.0”战略中,就已经涵盖了人工智能。2018年,德国联邦政府颁布了《高科技战略2025》,提出“推进人工智能应用,使德国成为人工智能领域世界领先的研究、开发和应用地点之一”,还明确提出建立人工智能竞争力中心、制定人工智能战略、组建数据伦理委员会、建立德法人工智能中心等。
在《联邦政府人工智能战略》中制定三大战略目标,以及包括研究、技术转化、创业、人才、标准、制度框架和国际合作在内的12个行动领域,旨在打造“人工智能德国造”品牌。在资金投入方面,德国政府宣布将首先投入5亿欧元用于2019年及之后几年的人工智能发展,并将在2025年底累计投入30亿欧元。德国经济和能源部在2019年发布的《国家工业战略2030》(草案)中,也多次强调人工智能的重要性。
2020年1月15日,德国柏林工业大学宣布成立新的人工智能研究所,进一步开展人工智能科研和人才培养。德国联邦政府将在人工智能战略框架内对该研究所追加预算,预计到2022年时,研究所将获得3200万欧元财政支持。柏林市政府也将为研究所新增人工智能岗位。
日本:主张构建有效且安全应用的“AI-Ready社会”。日本政府积极发布国家层面的人工智能战略、产业化路线图。2016年成立了人工智能技术战略委员会,作为人工智能国家层面的综合管理机构,以制定人工智能研究和发展目标以及人工智能产业化路线图,负责推动总务省、文部省、经产省以及下属研究机构间的协作,进行人工智能技术研发。该委员会有11名成员,分别来自学术界、产业界和政府。
2017年,日本发布《人工智能技术战略》,确定了在人工智能技术和成果商业化方面,政府、产业界和学术界合作的行动目标。2018年,日本发布《综合创新战略》提出要培养人工智能领域技术人才,确保在2025年之前每年培养和录用几十万名IT人才。此外,还发布了《集成创新战略》,将人工智能指定为重点发展领域之一,提出要加大其发展力度,同时强调要加强人工智能领域人才培养。
2018年12月27日,日本内阁府发布《以人类为中心的人工智能社会原则》推进人工智能发展,从宏观和伦理角度表明了日本政府的态度,主张在推进人工智能技术研发时,综合考虑其对人类、社会系统、产业构造、创新系统、政府等带来的影响,构建能够使人工智能有效且安全应用的“AI-Ready社会”,于2019年3月正式公布。
此原则是将人工智能(ArtificialIntelligence,AI)视为未来的关键科技,但在研发应用上,须以联合国的持续发展目标(SustainableDevelopmentGoals,SDGs)为基础,以落实日本“超智能社会”(Society5.0)为准则,其基本理念是Dignity、Diversity&Inclusion及Sustainability,并且建构“尊重人类尊严”、“不同背景的大众皆能追求幸福”及“持续性”的社会。
韩国:提升领域竞争力发展成为“AI强国”。韩国政府于2019年12月17日公布“人工智能(AI)国家战略”,以推动人工智能产业发展。该战略旨在推动韩国从“IT强国”发展为“AI强国”,计划在2030年将韩国在人工智能领域的竞争力提升至世界前列。
并且,提出构建引领世界的人工智能生态系统、成为人工智能应用领先的国家、实现以人为本的人工智能技术。在人工智能生态系统构建和技术研发领域,韩国政府将争取至2021年全面开放公共数据,到2024年建立光州人工智能园区,到2029年为新一代存算一体人工智能芯片研发投入约1万亿韩元。
其他国家:
加拿大在2017年宣布了泛加拿大人工智能战略,承诺提供1.25亿加元的加拿大人工智能研究与开发。这一战略旨在增加加拿大的AI和毕业生人数。在埃德蒙顿、蒙特利尔和多伦多建立科学卓越中心。建立加拿大在AI经济、伦理、政策和法律研究方面的全球思想领导地位。
法国于2018年3月发布AI战略,将投入1.5亿欧元把法国打造成AI研究、训练和行业的全球领导者。该计划由四个部分组成,一是宣布国家人工智能计划,将在法国各地建立一个由四五个研究机构组成的网络;二是将制定一项开放数据政策,推动人工智能在医疗等领域应用;三是政府将创建一个监管和金融框架,以支持国内“人工智能冠军企业”的发展;四是政府将制定道德规范。
印度在2018年6月发布《人工智能国家战略》,探求如何利用人工智能来促进经济增长和提升社会包容性,寻求一个适用于发展中国家的AI战略部署。该战略旨在提高印度人的工作技能,投资于能够最大限度地提高经济增长和社会影响的研究和部门,以及将印度制造的人工智能解决方案推广到其他发展中国家。
以色列于2019年11月发布了国家级人工智能计划,提出以色列要成为人工智能的世界五大国之一。并且政府以五年为一期,每年投资10至20亿新谢克尔(约2.89亿至5.8亿美元)开发人工智能技术,总共投资100亿新谢克尔(约28.93亿美元)于人工智能领域。
西班牙于2019年3月发布《西班牙人工智能研究、发展与创新战略》,认为最优先事项是建立一个有效的机制,以保障人工智能的研究、发展、创新,并评估人工智能对人类社会的影响。
中国AI发展支持政策:党和国家高度重视AI发展,从产业发展、教育等各个方面支持人工智能的发展。习近平总书记也曾多次强调用人工智能开辟社会治理新格局、人工智能为高质量发展赋能。早在2015年,《国务院关于积极推进“互联网+”行动的指导意见》就提出加快人工智能核心技术突破,促进人工智能在智能家居、智能终端、智能汽车、机器人等领域推广应用的目标。近年来发布了一系列的支持人工智能发展政策,如下图所示。
▲中国人工智能发展重要支持政策
进入2020年,国家大力推进并强调要加快5G网络、人工智能、数据中心等新型基础设施建设进度。人工智能技术被视为新一轮产业变革的核心驱动力量。此外,教育部、国家发展改革委、财政部联合发布了《关于“双一流”建设高校促进学科融合加快人工智能领域研究生培养的若干意见》,提出要构建基础理论人才与“人工智能+X”复合型人才并重的培养体系,探索深度融合的学科建设和人才培养新模式。7月,国家标准化管理委员会、中央网信办、国家发展改革委、科技部、工业和信息化部联合印发《国家新一代人工智能标准体系建设指南》(国标委联〔2020〕35号),以加强人工智能领域标准化顶层设计,推动人工智能产业技术研发和标准制定,促进产业健康可持续发展。
2、人工智能未来技术研究方向
人工智能经历几波浪潮之后,在过去十年中基本实现了感知能力,但却无法做到推理、可解释等认知能力,因此在下一波人工智能浪潮兴起时,将主要会去实现具有推理、可解释性、认知的人工智能。2015年,张钹院士提出第三代人工智能体系的雏形。2017年,DARPA发起XAI项目,核心思想是从可解释的机器学习系统、人机交互技术以及可解释的心理学理论三个方面,全面开展可解释性AI系统的研究。2018年底,第三代人工智能的理论框架体系正式公开提出,核心思想为:
(1)建立可解释、鲁棒性的人工智能理论和方法;
(2)发展安全、可靠、可信及可扩展的人工智能技术;
(3)推动人工智能创新应用。
其中具体实施的路线包括:
(1)与脑科学融合,发展脑启发的人工智能理论;
(2)探索数据与知识融合的人工智能理论与方法。虽然还没有明确第三代人工智能是什么,但是其趋势是清晰的。
Gartner2020年人工智能技术成熟度曲线图显示,如下图所示。2020年人工智能技术成熟度曲线共有30项技术出现,其中有17项技术需要2到5年才能达到成熟期,有8项技术需要5到10年才能达到成熟期。出现的这些技术基本处于创新萌芽期、期望膨胀的顶峰期和泡沫低谷期,而“稳步爬升的光明期”和“实质生产的高峰期”出现的技术寥寥无几,仅有InsightEngines(洞察引擎)和GPUAccelerators(GPU加速器)。
▲Gartner2020年人工智能技术成熟度曲线图
通过对2020年人工智能技术成熟度曲线分析,并结合人工智能的发展现状,本报告认为人工智能下一个十年重点发展的方向包括:强化学习(ReinforementLearning)、神经形态硬件(NeuromorphicHardware)、知识图谱(KnowledgeGraphics)、智能机器人(SmartRobotics)、可解释性AI(ExplainableAI)、数字伦理(DigitalEthics)、自然语言处理(NaturalLanguageProcessing)等技术处于期望膨胀期,表明人们对AI最大的期待,达到稳定期需要5-10年,是AI未来十年重点发展方向。
(1)强化学习(ReinforementLearning。)。强化学习用于描述和解决智能体在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。强化学习不受标注数据和先验知识所限制,而是通过接收环境对动作的奖励(反馈)获得学习信息并更新模型参数。由于智能体和环境的交互方式与人类和环境的交互方式类似,强化学习可以认为是一套通用的学习框架,可用来解决通用人工智能的问题。
(2)神经形态硬件(NeuromorphicHardware。)。神经形态硬件旨在用与传统硬件完全不同的方式处理信息,通过模仿人脑构造来大幅提高计算机的思维能力与反应能力。采用多进制信号来模拟生物神经元的功能,可将负责数据存储和数据处理的元件整合到同一个互联模块当中。从这一意义上说,这一系统与组成人脑的数十亿计的、相互连接的神经元颇为相仿。神经形态硬件能够大幅提升数据处理能力和机器学习能力,能耗和体积却要小得多,为人工智能的未来发展提供强大的算力支撑。
(3)知识图谱(KnowledgeGraphics。)。要实现真正的类人智能,机器还需要掌握大量的常识性知识,以人的思维模式和知识结构来进行语言理解、视觉场景解析和决策分析。知识图谱将互联网的信息表达成更接近人类认知世界的形式,提供了一种更好地组织、管理和理解互联网海量信息的能力,被认为是从感知智能通往认知智能的重要基石。
从感知到认知的跨越过程中,构建大规模高质量知识图谱是一个重要环节,当人工智能可以通过更结构化的表示理解人类知识,并进行互联,才有可能让机器真正实现推理、联想等认知功能。清华大学唐杰教授在知识图谱的基础上提出的“认知图谱=知识图谱+认知推理+逻辑表达”,为人工智能未来十年的发展提供了研究方向。
(4)、智能机器人(IntelligentRobot)。智能机器人需要具备三个基本要素:感觉要素、思考要素和反应要素。感觉要素是利用传感器感受内部和外部信息,如视觉、听觉、触觉等;思考要素是根据感觉要素所得到的信息,思考出采用什么样的动作;反应要素是对外界做出反应性动作。
智能机器人的关键技术包括多传感器信息融合、导航与定位、路径规划、智能控制等。由于社会发展的需求和机器人应用行业的扩大,机器人可以具备的智能水平并未达到极限,影响因素包括硬件设施的计算速度不够、传感器的种类不足,以及缺乏机器人的思考行为程序难以编制等。
(5)、可解释人工智能(ExplainableAI)。虽然深度学习算法在语音识别、计算机视觉、自然语言处理等领域取得令人印象深刻的性能,但是它们在透明度和可解释性方面仍存在局限性。深度学习的不可解释性已经成为计算机领域顶级会议(如NIPS)火药味十足的讨论话题。一些方法尝试将黑盒的神经网络模型和符号推理结合了起来,通过引入逻辑规则增加可解释性。
此外,符号化的知识图谱具有形象直观的特性,为弥补神经网络在解释性方面的缺陷提供了可能。利用知识图谱解释深度学习和高层次决策模型,是当前值得研究的科学问题,可以为可解释的AI提供全新视角的机遇。张钹院士指出当前人工智能的最大问题是不可解释和不可理解,并提倡建立具有可解释性的第三代人工智能理论体系。
(6)、数字伦理(DigitalEthics。)。作为新一轮科技革命和产业变革的重要驱动力,人工智能已上升为国家战略,人工智能将会在未来几十年对人类社会产生巨大的影响,带来不可逆转的改变。人工智能的发展面临诸多现实的伦理和法律问题,如网络安全、个人隐私、数据权益和公平公正等。
为了让人工智能技术更好地服务于经济社会发展和人民美好生活,不仅要发挥好人工智能的“头雁”效应,也要加强人工智能相关法律、伦理、社会问题等方面的研究。数字伦理将是未来智能社会的发展基石,只有建立完善的人工智能伦理规范,处理好机器与人的新关系,我们才能更多地获得人工智能红利,让技术造福人类。
(7)、自然语言处理(NatureLanguageProcessing)。深度学习在自然语言处理取得了巨大突破,它能够高效学习多粒度语言单元间复杂语义关联。但是仅仅依靠深度学习并不能完成对自然语言的深度理解。对自然语言的深度理解需要从字面意义到言外之意的跃迁,这需要引入复杂知识的支持。
丰富的语言知识能够提升模型的可解释性,可覆盖长尾低频语言单位的知识规则能够提升模型的可扩展性,而异质多样的知识与推理体系能够提升模型鲁棒性。因此有必要研究知识指导的自然语言处理技术,揭示自然语言处理和知识产生及表达的机理,建立知识获取与语言处理双向驱动的方法体系,实现真正的语言与知识智能理解。
3、面临的问题
随着人工智能的快速发展和应用,人们越来越重视随之而来的安全和伦理问题。AI发展面临着诸多安全和伦理方面的挑战。安全挑战主要包括三个方面:一是人工智能可以替代体力劳动和脑力劳动,相应的岗位替代作用影响着人类就业安全;二是建立在大数据和深度学习基础上的人工智能技术,需要海量数据来学习训练算法,带来了数据盗用、信息泄露和个人侵害的风险。
许多个人信息如果被非法利用,将会构成对隐私权的侵犯。三是人工智能具有强大的数据收集、分析以及信息生成能力,可以生成和仿造很多东西,甚至包括人类自身。随之而生的虚假信息、欺诈信息不仅会侵蚀社会的诚信体系,还会对国家的政治安全、经济安全和社会稳定带来负面影响。
人工智能发展面临的伦理挑战主要来自以下方面。一是人们对智能化的过度依赖。人工智能发展带来的简易、便捷的智能化工作和生活方式的同时,严重挤占了人们用于休息的自由时间、用于劳动的工作时间和用于个人全面发展的时间,由此催生了许多人的懒惰和对智能产品的过度依赖;同时,个性化新闻推荐或者自动生成的新闻,真假难辨的广告和宣传给人们封闭在“信息茧房”里。甚至逐渐失去了独立自由决策的能力,成为数据和算法的奴隶。
二是情感计算技术和类脑智能技术的创新融合发展,可能扰乱人们对于身份和能动性的认知。人类大脑与机器智能直接连接,会绕过大脑和身体正常的感觉运动功能;增强型神经技术的应用也可能改变人的体能和心智。这是对人类社会的道德社会规范和法律责任的挑战。
三是智能算法歧视将带来的偏见。人工智能以大数据和深度学习为基础,数据、算法以及人为因素会导致计算结果的偏见和非中立性,比如性别歧视、种族歧视以及“有色眼镜”效应。数据和算法导致的歧视往往具有更大的隐蔽性,更难以发现和消除。例如,微软在Twitter上上线的聊天机器人Tay在与网民互动过程中,由于大量恶意数据的输入,成为集性别歧视、种族歧视等于一身的“流氓”,它不但辱骂用户,还发表了种族主义评论和煽动性的政治宣言。
四是人工智能对人类造成的威胁和伤害。智能武器是可自动寻找、识别、跟踪和摧毁目标的现代高技术兵器,包括精确制导武器、智能反导系统、无人驾驶飞机、无人驾驶坦克、无人驾驶潜艇、无人操作火炮、智能地雷、智能鱼雷和自主多用途智能作战机器人等,它将成为未来战场主力军,信息处理和计算能力成为战争胜负的决定因素。人工智能武器是继火药和核武器之后战争领域的第三次革命。人工智能如果被赋予伤害、破坏或欺骗人类的自主能力,将是人类的灾难,后果难以想象。
面对人工智能带来的安全和伦理问题,受到越来越多各方关注和应对。2020年,美国国防部下属的国防创新委员会推出了《人工智能伦理道德标准》,公布了人工智能五大伦理原则,即负责、公平、可追踪、可靠和可控。无论作战还是非作战人工智能系统,均须遵守上述原则,否则美国防部将不予部署。牛津大学成立了人工智能伦理研究所(InstituteforEthicsinAI),并委任了由7位哲学家组成的首个学术研究团队。中国人工智能学会伦理专业委员会也正着手进行中国人工智能伦理规范研究。
科技是未来竞争的制高点。虽然科技无国界,但是科技公司有国界。当前世界各国对人工智能技术发展都不遗余力地投入和支持,同时,还使用不同方法保护自己的科技成果,封锁前沿技术和“卡脖子”技术外流路径,这将在一定程度上限制人工智能技术创新要素的自由流动。
从全球范围来看,中国和美国人工智能领域科研论文和专利产出数量最多的两个国家。但是近年来,中美两国在人工智能技术领域的贸易关系则存在摩擦。2018年11月19日美国商务部工业安全署(BIS)出台了一份针对关键新兴技术和相关产品的出口管制框架,其中在人工智能领域包括神经网络和深度学习、进化和遗传计算、强化学习、计算机视觉、专家系统、语音和音频处理、自然语言处理、规划、AI芯片组、AI云技术、音频和视频操作技术共计11项技术。
2019年10月7日,美国BIS部门把8家计算机视觉领域的中国科技企业加入“实体清单”。清单中的实体须在有许可证的情况下才可购买美国技术与产品,但美政府有权拒绝许可申请。
在字节跳动TikTok公司出售在美业务的谈判过程中,2020年8月28日,》中国商务部、科技部调整发布了最新版的《中国禁止出口限制出口技术目录》(商务部科技部公告2020年第38号)。在最新目录中,语音合成、人工智能交互界面、语音评测、基于数据分析的个性化信息推送服务、无人机、量子密码等技术均被列入“限制出口”名单。
根据《中华人民共和国技术进出口管理条例》,凡是涉及向境外转移技术,无论是采用贸易还是投资或是其他方式,均要严格遵守《中华人民共和国技术进出口管理条例》的规定,其中限制类技术出口必须到省级商务主管部门申请技术出口许可,获得批准后方可对外进行实质性谈判,签订技术出口合同。
在大型跨国公司的收购过程中,相关国家政府批准出售是交易宣告成功的必要条件。对于字节跳动出售TikTok业务来说,有可能出现其中一个国家政府出面阻止交易的情况。
根据人工智能技术关键词获取中美两国的论文数据,生成中国和美国在不同领域的研究成果对比图,如下图所示。分析发现,在被限制出口的计算及服务业技术中,中国在以人脸识别为代表的计算机视觉、语音识别与自然语言处理(特别是中文)上有着较美国领先的优势,主要体现在高水平论文发表量、专利申请量两方面。
▲中国和美国2011-2020年在三个AI子领域的高水平论文量和专利申请量对比图
在语音识别、图像识别、自然语言处理技术上,中国国内市场提供了稳定庞大的用户与数据供应,以及政策支持为产业发展带来的所需资源和资本聚集,这些本土化优势,对于外国企业来说是不可复制的。
中国目前在计算机视觉领域的领先企业以SenseTime,Face++,YITU和海康威视为代表,技术优势主要体现在人脸识别,在2017年中国在这一领域获得的专利数量大约是美国公司的6倍,其应用场景多为安全监控系统。相比而言,由于隐私政策,欧美的人脸识别技术难以发展实行,例如2020年8月12日英国法院裁决警察部门使用自动面部识别(AFR)违反了数据保护和平等法以及隐私权。
在语音识别领域,中国企业表现较优秀,特别是在中文识别和处理上。科大讯飞iFlytek、依图科技YITU、百度、腾讯、阿里巴巴等企业依靠中国庞大的中文用户,能获得远超美国能获得的中文语音数据库,这使得其语音识别AI有更好的语音识别学习条件。例如,腾讯可从其月活超10亿的微信用户那里获得中文语音数据。这一点是中国企业在中文语音识别技术上不可复制的优势。
在自然语言处理领域,百度的能力被认为超过微软和谷歌。受Google的BERT启发,百度的自然语言处理模型ERNIE最初是为理解汉语而开发的,但是它也能够更好地理解英语。
Google的模型在学习时会在每个序列中隐藏15%的单词,然后尝试根据上下文进行预测。基于类似的方法,百度团队通过让其AI模型预测文章中一串被隐藏的汉字,来学习文字组合的联系。不同于被微软和谷歌使用的英文,中文的特性要求ERNIE模型必须能够理解汉字组合后的出现的内在含义。结果显示,其在GLUE得分为第一名90.1,超过微软和谷歌的模型得分。
▲中国和美国2011-2020年在三个AI子领域专利公开趋势
研究发现,中国在人工智能和机器学习技术领域发展迅速,相关领域中在国学者的论文发表量在2008年前后已经赶超美国。
值得注意的是,中国杰出学者的国际合作对象国家不均衡,呈现出美国“一家独大”局面。以合发论文为产出指标看中国杰出学者开展国际合作的情况,中国杰出学者与美国合作紧密度最高,人数占比约62.3%,其次是英国(14.7%)、德国(13.7%)、澳大利亚(9.5%)和新加坡(9.2%)。随着贸易战的不断升级蔓延,中美关系日益复杂,正常的科技与学术交流受阻,容易对我国的相关技术领域发展与人才培养造成不利影响。
在严峻的国际大环境下,未来人工智能技术自由交流发展将无疑受到影响。考虑到数据安全等多种因素,未来的基于数据分析的个性化信息推送服务技术,对外技术支持与技术服务出口都将受到限制。
智东西认为,每一次的经济大发展都与科技的突破紧密相关,近些年世界经济很大程度上都是由信息产业的发展带动起来。现在,人工智能技术的逐渐成熟,下游应用不断拓展等种种迹象表明科技正迎来新的爆发期,全球科技竞赛也将再次掀起高潮。中国想要在这轮科技革新中占得先机,就需要加强技术预判,找准方向,提早部署,特别是在一些基础性、突破性的领域精准布局。
原标题:《清华大学:人工智能十年发展总结,中国进步神速,专利占全球七成【附下载】|智东西内参》
阅读原文
人工智能发展现状及应用
导读:人工智能(ArtificialIntelligence),英文缩写为AI。人工智能被认为是第四次科技革命的核心驱动力,目前许多领域都在探索AI技术的应用,可谓方兴未艾。那么什么是人工智能,它经历了怎样的发展历程,现阶段发展状况如何,它有哪些应用。本篇文章就为大家做个简单分享。同时也会为大家详细介绍一下百度的AI技术体系。
本文主要内容:
1.人工智能概念
①智能
②人工智能
2.人工智能的发展
①人工智能的发展历程
②AI是中国的机遇
3.AI与百度
①百度AI的发展历程
②百度AI的技术体系
③百度AI的场景化应用
1.人工智能概念
1.1智能
谈到人工智能,需要首先理解“智能”一词的具体含义。智能是指人类才具有的一些技能。人在进行各种活动的过程中,从感觉到记忆再到思维产生了智慧,智慧产生了人类本身的行为和语言,行为和语言统称为能力;智慧和能力结合在一起就是人工智能中的智能一词。
比如,人类的语言表达能力就是一种智能(语言智能);人类进行复杂数学运算的能力也是一种智能(数字逻辑智能);人类的交往能力也是一种智能(人际智能),人们对音调、旋律、节奏、音色的感知能力,也是一种智能(音乐智能)。他们都属于智能的范畴。
1.2人工智能
把智能的概念与人的逻辑理解相结合,并应用到机器中,让机器能更好的模拟人的相关职能,这就是人工智能。人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。
人工智能概念,最早可以追溯到上世纪90年代初,这个时候需要提到一位科学家:图灵。
艾伦·麦席森·图灵(英语:AlanMathisonTuring,1912年6月23日—1954年6月7日),英国数学家、逻辑学家,被称为计算机科学之父,人工智能之父。
图灵最早定义了什么是人工智能,怎样去界定一个机器(或一个设备)是否具备智能。他最早提出了图灵测试(即:一个人在不接触对方的情况下,经过某种特殊的方式和对方进行一系列的问答,如果在某些时间之内,他无法根据这些问题判断对方是人还是计算机,那么我们就认为这台机器具备智能化的思维)。直到2000年左右,才真正有计算机通过了图灵测试,才实现了一个突破。在2014年图灵测试大会上,出现了一个通过图灵测试的机器(或者称为智能聊天的机器人)。这两年人工智能的高速发展,也印证了最早的图灵测试,这也让我们反向看到了图灵在人工智能定义方面做出的突出贡献。
现今,在做图灵测试时,判断这个设备是否具备人工智能,更多的还是从模拟人的角度来考量。但在当前科技背景下,人工智能需要涵盖更广的内容,它不仅仅要模拟人本身的职能,还需要具备一些扩展、替代甚至延伸的职能。
举个例子,在医疗领域,需要经常在实验室进行病毒化验,人处这样的实验环境下会比较危险,经常会出现一些事故,如果能够用机器替代人来做这些实验,这些事故就可以避免。此时,这台机器就不仅仅是在模拟人,而是在替代人,机器本身就具备了替代人的能力。
当前,很多人在担忧:人工智能的发展会不会对人类造成威胁。其实,目前人工智能还处于早期的阶段(或者称之为婴幼儿阶段),我们还处于弱人工智能时代。
当然,随着时间的推移,将来我们可能会把弱人工智能时代推进到强人工智能,甚至再往前推进到超人工智能和智能爆炸时代。但至少目前,我们离这样的时代还有非常远的距离,要实现这样的目标,需要非常多的时间积累,可能要通过几代人甚至十几代人的努力。所以大家不要有过多的担心,人工智能现在更多的还是用于服务人类,用来提高人们的工作效率。
上图引自MIT大学一位教授。
针对人工智能所覆盖的领域,这位教授提出一个观点:“我们要尽可能避免做这些容易“进水”的工作,以免被日后所淘汰掉”。
这张图水平面以下的工作,如存储,计算、甚至象棋活动等,已经被海平面淹没。在海平面边缘的工作,如翻译、驾驶、视觉和音频等,很有可能在未来的一段时间,随着技术的进步也会被淹没。再来看图上高海拔地区的工作,如艺术创新、科学研究,文学创作等,让人工智能替代人类去做这些工作,在现阶段是比较困难的。要让人工智能实现像人一样具备主观能动性,还需要比较长的时间。我们在选择工作,或者在做技术探索的时候,应该从更高的层面布局,而把那些可以被人工智能替代的工作交给计算机去做,这样我们就可以从一些重复性、冗余性的工作中抽离出来,去专门从事创造性的工作(比如艺术创作等)。
2.人工智能的发展2.1人工智能的发展历程我们回顾一下人工智能发展的历程。
人工智能并不是特别新鲜的词,在计算机出现后不久,大家就已经开始探索人工智能的发展了。
1943到1956年这段时间,为人工智能的诞生期,期间有很多人尝试用计算机进行智能化的应用,当然此时不能称为人工智能,只是有类似的概念。
人工智能的分水岭是1956年达特茅斯会议,在本次会议上正式提出了AI这个词。
1956到1974年这段时间,是人工智能发展的黄金时代,是人工智能的第1个高速发展期,通常把这段时间称之为人工智能大发现时代。
1974到1980年这6年的时间里,进入了人工智能发展的第1个低谷,在这个低谷期,出现了非常多的问题,比如计算上的问题、存储上的问题、数据量的问题,这些问题限制了人工智能的发展。
1980到1987年这段时间是人工智能的第2个繁荣期。期间诞生了大量的算法,推动了神经网络的高速发展,同时出现了许多专业的科研人员,发表了许多创造性的论文。
1987到1993年这段时间是人工智能的第2个低谷期,期间有个词叫“AI之冬”。有大量的资本从AI领域撤出,整个AI科研遇到了非常大的财政问题,这是导致”AI之冬”的主要原因。
1993年之后,人工智能又进入到高速发展期,期间出现了许多经典案例,比如1997年IBM公司的深蓝案例,2001年IBM的沃森案例,2016年谷歌AlphaGo案例。这些案例是人工智能在应用层面的体现。
上图概括了人工智能的发展历程。
可以看到,从1956年达特茅斯会议AI这个词诞生,一直发展到现在,人工智能共经历了60多年的跌宕起伏,并不是仅在2016、2017这两年间才出现了人工智能这个概念。
从宏观上看,AI的发展历程经历了三次比较大的起伏。
第1次起伏是从1943年到1956年,首次出现了神经网络这个词,把人工智能推到一个高峰,期间出现了许多大发现。而第1次低谷使人工智能进入到了反思的阶段,人们开始探讨人工智能的应用。
第2次起伏是在上世纪80年代,期间BP算法的出现,神经网络新概念的普及,推动了人工智能又进入第2次高峰和发展。然而从1987年到1993年又进入到了了第2次低谷,这主要因为一些财政原因导致。
第3次起伏从2006年开始,由辛顿提出了深度学习的概念,把神经网络往前推动了一大步,也把人工智能推到了高速发展阶段,尤其是近几年在非结构化领域取得了许多突破(例如在语音与视觉方面),给人工智能进入商业化应用带来许多的基础性技术沉淀。
人工智能为什么会在前面的发展过程里遇到了那么多的坎坷?为什么在最近这几年会进入一个高速发展期?
我们归结了近几年人工智能高速发展的三点原因:
①算力飞跃
人工智能(尤其是深度学习),对底层计算能力的要求非常高。早期的计算受到了极大限制,从CPU发展到了GPU,使得算力几乎能达到几倍甚至十几倍量级的增长。再从GPU到TPU,计算速度能达到15~30倍的增长,使得在算力层面不断取得突破。此外,大量云资源的出现将我们计算的成本压到了最低,我们在处理海量计算的同时,也可以享受比较低的成本。再者,芯片技术的发展,使得端处理能力持续提高,这些都帮助我们在算力层面取得了很大的突破。
②数据井喷
从PC互联网时代到移动互联网时代,再到可穿戴设备的应用,都产生了大量的数据。这两年,每年产生的数据量可以达到50%左右的增长。2017年到2018年,这段时间内基本上每个月产生的数据量可以达到几十个亿的量级,数据量已经非常高。物联网的连接,能帮助我们把更多的数据采集回来,帮助我们在数据层面做更多的积累,这是数据井喷带来的积极影响。
③算法突破
近几年来,从机器学习到深度学习,算法不断取得突破。使得我们可以处理更多的大规模、无监督、多层次等复杂业务。
算法、算力、数据是人工智能的三要素,算力是骨骼,数据是血液和食物,算法就是大脑,三者不断取得突破,才能促进人工智能高速发展。
2.3AI是中国的机遇
人工智能技术的发展也促进了很多产业的发展。中国目前有非常好的历史机遇,不仅仅是在技术上有大量的积累,同时,国家也为人工智能的发展提供了非常好的政策环境。此外,市场空间、资金支持、人才储备,也都为人工智能的发展提供了非常好的条件。
通过上图可以看到,人工智能的研发人才目前还比较短缺。图上数据来源于领英在2017年所做的全球AI人才报告。以2017年的数据来看,全球人工智能专业的人才数量超过190万,在这190万人才中,美国处于第一梯队,有85万+;而中国在人工智能领域的人才积累比较少,从数据上来看,目前国内人工智能方面的专业技术人才可能只有5万+,当然这是2017年的数据,现在可能会有一些增长,但是量级也没有达到我们想象的那么大。
所以从国内目前来看,这约5-10万的AI技术人才,对比AI产业的高速发展需求,两者之间有巨大矛盾。那怎样更好的用这些人才作为突破,把人工智能方面的技术人才储备提高到百万级别。这正是整个百度(包括百度的教育合作与共建,包括百度所有对外输出的体系,包括我们今天所做的课程)所努力的方向,我们期望通过百度的技术赋能,真正的帮助人工智能取得更好的人才积累,真正培养一些在未来对人工智能行业有巨大贡献的专业人才,这是百度现在的定位目标。
AI浪潮已然到来,行业人工智能时代已经到来。目前,人工智能已经大量应用在2c和2b领域,怎么让人工智能跟具体行业有更好的接触,产生更多的积累,是我们正在重点探索的方向。
比如百度的搜索引擎,已经融入了很多AI元素。模糊匹配、拍照识图、深度挖掘检索等都应用到了大量的人工智能技术。
再如推荐系统,他会基于个人的一些喜好和历史阅读习惯来给用户做一些内容的推荐和匹配,这是很典型的结合大数据做的精准应用,实际上也属于人工智能的范畴。
再如人脸识别技术、语音技术、智慧交通和无人驾驶等,都是AI技术与行业应用的融合,并且这些技术正在不断取得突破。百度现在L4级别的无人驾驶车已经初步实现了一些小规模的量产,未来会有更多的人将真正的体会到无人驾驶给生活带来的便利。
3.AI与百度3.1百度AI的发展历程
上图为百度在人工智能领域的发展轨迹,早在2009年,百度就开始尝试探索人工智能相关技术,直到2019年,百度用了近十年的时间布局人工智能。
2009年尝试性布局人工智能,2013年发布IDL,2014年成立硅谷实验室以及百度研究院,2015年首次发布DuerOS,2016年发布百度大脑1.0版本,同年,百度的自动驾驶技术进入试运营状态,2017年是百度人工智能技术高速发展的一年,不仅成立了深度学习国家实验室,同时也成立了硅谷第二实验室以及西雅图实验室,并且Apollo平台开始运行并对外推广,在2018年到2019年,DuerOS和Apollo平台发展到3.0版本,百度大脑发展到5.0版本。经过近十年的发展和积累,百度的人工智能技术目前处于相对领先的位置。
百度在人工智能领域领域取得的进展有目共睹,比如,百度成立了首个国家级AI实验室;2016年被美国《财富》杂志评选为深度学习领域四大巨头之一;百度的刷脸支付、强化学习、自动驾驶等技术入选MIT2017年全球十大突破性技术;在AI领域,百度的中国专利申请超过2000项。
3.2百度AI的技术体系
百度的技术体系非常全面,覆盖了计算体系、大数据技术体系以及人工智能技术体系等,在机器学习、深度学习、区块链、知识图谱、自然语言处理、量子计算等领域均有雄厚的技术积累。这些技术可以按内容划分成三个板块,第一是A板块(即AI技术板块),第二是B板块(即大数据板块),第三是C板块(即云计算板块)。这就是百度在2016年提出的ABC概念。从一开始的1.0版本,发展到如今的3.0版本,代表着百度在人工智能领域的整体布局。在人工智能领域的布局中,百度的探索不仅停留在最核心的技术上,也同时将核心技术与更多的领域相结合,如边缘计算、物联网(InternetofThings,IoT)和区块链等,得到了如ABC+区块链、ABC+DuerOS、ABC+Apollo等对外输出模式,向各行各业提供解决方案。
在A板块中,将百度大脑分成了不同的层次。最底层是算法层,包含机器学习和深度学习算法,使用百度的PaddlePaddle深度学习框架提供算法层的基础支撑;算法层之上为感知层,感知层可分为对声音的感知和对光的感知,其中,对声音的感知主要是语音技术板块,对光的感知主要是图像技术、视频技术、AR/VR等技术板块;在感知层之上是认知层,认知层更多的是处理人类听到和看到的内容,对其进行深度理解,深度理解需要自然语言处理(NLP/NLU)、知识图谱等技术作为支撑,同时也需要积累大量用户画像数据,这些技术能帮助人们快速的理解和分析人类听到和看到的内容,并对内容进行有效的反馈,这是认知层面的技术;在认知层之上是平台层,平台层将底层的内容进行融合、封装,对外提供开放、完整的AI技术,并引入大量的生态合作伙伴,共同探讨人工智能产业的布局。
百度人工智能整体技术体系,最底层是深度学习框架飞桨PaddlePaddle,作为底层计算框架,飞桨PaddlePaddle支撑着上层场景化能力与平台中的全部板块。在场景化能力与平台中,包含了诸多场景大板块,每个大板块下又细分为多个技术板块,比如语音板块包含了语音合成以及语音唤醒等技术板块;计算机视觉技术中的OCR技术,包括传统通用OCR识别,以及垂直领域OCR的识别,可以对30多个OCR识别领域进行精准识别,比如票据识别、证件识别以及文字识别等;在人脸/人体识别板块,同时也会引入图像审核以及图像识别方面的技术;在视频板块,有视频比对技术,视频分类和标注技术,以及视频审核技术;在自然语言处理板块,有机器翻译技术;知识图谱板块,有AR/VR技术。这些板块构成了人工智能体系的技术蓝图。
近两年来,人工智能技术在各行各业中的应用不断加深,实践证明,单一的技术在落地时会受到诸多限制,所以现在人工智能在落地时可能不仅仅用到某一个单独的技术板块,而是需要先把这些板块进行融合,然后再进行实际应用,比如在拍照翻译的应用场景下,既需要用到OCR技术,同时也用到NLP技术。因此在实际应用中,需要综合各个板块的技术,把不同的技术体系和技术内容有机地融合起来,再去解决行业中面临的痛点。
3.3百度AI的场景化应用
2014年到2015年期间,在计算机视觉领域的部分场景下,计算机视觉识别准确率已经超过了人眼识别。而利用深度学习技术的计算机听觉识别,在2017年左右也已经超过人耳听力极限。
人工智能业务场景化不仅依赖底层的硬件资源,也需要超大规模的标注数据,这是监督学习的特点,所以在人工智能早期研究中,有评论说“有多少人工就有多少智能”,这句话在特定角度来看是具有一定意义的。在监督学习中,训练模型需要庞大的标注数据,再结合GPU强大的数据处理能力去训练特定模型,也就是从算法的层面去做更多的工作,在训练模型的过程中需要发挥人的主观能动性,更好的解决在行业应用中出现的一些痛点,构建出行业专属的模型。
比如,将人体分析技术应用到实际行业场景中时,需要结合人脸识别技术和人体识别技术。可以通过基础手势识别,识别一个人在开车时有没有系安全带、是不是在打电话等。
利用人体分析技术,可以做到行为识别,首先设定特定区域,然后对区域内的人员行为进行识别,比如人群过密、区域越界、人员逆行、徘徊以及吸烟等,在特定场景下,行为识别能够帮助用户避免安全隐患。
自然语言处理有很多相关技术,比如说词法分析、词向量表示、语义相似度、短文本相似度、情感相似度分析等。这些技术用在不同的应用场景下。
在公检法系统应用中,为了避免出现非常严重的问题,如同案不同判,具体解决方案是当诉讼呈递给法官时,根据当前诉讼内容在公检法系统中寻找历史上类似的案件,参考历史类似案件的判决,给法官提供判案依据。
在媒体领域应用中,对基础的财经类新闻,可以由机器进行新闻文章的编写,即机器写作。这些技术都是基于NLP在相应领域做的智能化应用,可以让编辑或记者从重复性的工作中解脱出来。
人工智能从广义上来看,也包括大数据及云计算相关技术,这些技术也都涵盖在百度AI技术体系中。在大数据领域,主要包括数据采集、数据存储、数据分析以及数据可视化等,利用这些技术,我们在进行模型训练的时候,对数据进行科学的管理可以帮助我们提高模型训练效率。
百度AI技术体系也提供算力层面的支持,通过GPU服务器以及FPGA服务器提供的算力,更好的解决应用层面的问题。
百度AI就是这样一个从基础层,到感知层、认知层的完整体系,为多行业、多场景提供“一站式解决方案”,力求实现“多行业、多场景全面赋能”。
回顾本篇文章,我们和大家分享了人工智能的相关概念,人工智能的发展历程,从中也可以看出AI是我们的历史机遇。同时本文也为大家详细介绍了百度的AI技术体系,经过10余年的努力,百度AI已经形成从基础层,到感知层、认知层的完整技术体系,为多行业、多场景提供“一站式解决方案”,力求实现“多行业、多场景全面赋能”。