清华大学:人工智能十年发展总结,中国进步神速,专利占全球七成
人工智能的十年总结,十大热门方向,中国进步惊人。
编辑|智东西内参
人工智能在过去十年中从实验室走向产业化生产,重塑传统行业模式、引领未来的价值已经凸显,并为全球经济和社会活动做出了不容忽视的贡献。
当前,人工智能已经迎来其发展史上的第三次浪潮。人工智能理论和技术取得了飞速发展,在语音识别、文本识别、视频识别等感知领域取得了突破,达到或超过人类水准,成为引领新一轮科技革命和产业变革的战略性技术。人工智能的应用领域也快速向多方向发展,出现在与人们日常生活息息相关的越来越多的场景中。
近日,清华大学科技情报大数据挖掘与服务系统平台AMiner发布了研究报告《人工智能发展报告2011-2020》,阐述人工智能过去十年取得的重要成果,并讨论了人工智能的未来发展蓝图,理论、技术和应用方面的重大变化与挑战。如果想收藏本文的报告,可以在智东西(公众号:zhidxcom)回复关键词“nc517”获取。
本期内参来源:清华大学
原标题:
《人工智能发展报告2011-2020》
作者:张淼等
01.
飞速发展的十年
1、论文发表情况
人工智能过去十年发展快速,从学术研究走向商业化。本报告专注于通过分析在国际顶级期刊和会议上的人工智能领域科研论文发表情况来研究该领域的成果产出。由下图可见,从2011年以来人工智能领域高水平论文发表量整体上呈现稳步增长态势,取得了很多科研成果。这些科研成果涵盖R-CNN算法、神经机器翻译的新方法等。
▲过去十年人工智能领域国际顶级期刊会议论文数量趋势
从高水平科研论文的国家分布来看,人工智能领域论文发表量居于前十的国家依次是美国、中国、德国、英国、日本、加拿大、法国、韩国、意大利和澳大利亚,如下图所示。美国和中国的高水平论文发表量明显高于其他国家,分别位居第一、二名,中国的论文量紧随美国之后。
▲过去十年人工智能领域高水平论文发表量前十国家
研究发现,各个国家的人工智能领域高水平科研论文发布具有以下特征。
(1)、开展跨国科研合作较多的国家是美国和中国
从论文的国际合作网络看,美国和中国的AI高水平论文发表均存在较多的跨国合作现象,如下图所示。其中,AI技术实力领先的美国所参与的高水平论文跨国合作最多,是各国的主要合作国家,过去十年,美国的33255篇AI高水平论文之中,出现过中国、英国、加拿大、德国、印度等30多个合作国家,合作国家数量最多;中国的跨国科研合作国家数量位居第二,在其22686篇AI高水平论文之中,出现了美国、加拿大、新加坡、英国、日本等20多个合作国家;英国和德国的AI高水平论文跨国合作国家数量均为18个。其余国家在AI高水平论文方面开展的跨国合作数量较少。
▲过去十年人工智能领域高水平论文发表国际合作国家分布
(2)、中美两国是对方AI领域的重要科研合作伙伴
在AI高水平论文发表方面,美国和中国均是对方的重要科研合作伙伴。过去十年,美国在其30多个合作国家之中,与中国合作的AI高水平论文数量占比最多,为18.53%。同时,中国在其20多个合作国家之中,与美国合作的论文数量最多,占比27.16%。可见,开展国际科研合作已成为中美两国AI研究成果产出的重要方式。
(3)、跨国科研合作可以提高合作本国AI研究成果的影响力
分析发现,美国的AI领域高水平论文平均引用率为44.99,中国的AI领域高水平论文平均引用率为31.88。相比而言,中国和美国合作论文的平均引用率达51.2,其影响力明显高于中国和美国各自论文的平均引用水平,这表明跨国合作的科研成果在世界人工智能研发领域的展示和交流几率大大增加。
2、获得图灵奖的人工智能技术
图灵奖(ACMA.M.TuringAward)是计算机界最负盛名、最崇高的一个奖项,有“计算机界的诺贝尔奖”之称。图灵奖是计算机协会(ACM)于1966年设立的奖项,专门奖励对计算机事业做出重要贡献的个人。其名称取自世界计算机科学的先驱、英国科学家、曼彻斯特大学教授艾伦·图灵(A.M.Turing)。
图灵奖获奖者必须是在计算机领域具有持久而重大的先进性的技术贡献,大多数获奖者是计算机科学家。第一位图灵得主是卡耐基梅隆大学的AlanPerlis(1966年),第一位女性获奖者是IBM的FrancesE.Allen(2006年)。
通过AMiner智能引擎,可以自动收集历年来图灵奖获得者及其学者画像信息(基本信息、研究兴趣等),以及该学者的论文和专著等信息。由于每年度的图灵获奖者一般在次年3月下旬由美国计算机协会(ACM)官方颁发,因此本报告统计了截至2020年颁发的近十年(2010-2019年)图灵奖得主数据。分析发现,图灵奖近十年授予领域具有如下特征。
(1)、十年中三次正式颁奖给人工智能领域
图灵奖颁发的领域,在一定程度上反映了计算机科学技术发展方向的缩影。数据显示,过去十年图灵奖分别授予给了计算理论、概率和因果推理、密码学、分布式和并发系统、数据库系统、万维网、计算机系统、深度神经网络和3D计算机图形学九个领域,具体如下图所示。从获奖内容、创新角度、研究领域等维度来看,图灵奖注重原始理论创新和学科交叉,具有科研优势积累现象。
过去十年的图灵奖有三次正式授予给人工智能领域。
第一次是2010年,LeslieValiant因对计算理论的贡献(PAC、枚举复杂性、代数计算和并行分布式计算)获得图灵奖,该成果是人工智能领域快速发展的数学基础之一。
第二次是2011年,因JudeaPearl通过概率和因果推理对人工智能做出贡献而颁奖;
第三次是2018年,深度学习领域三位大神YoshuaBengio、GeoffreyHinton和YannLeCun因为在概念和工程上的重大突破推动了深度神经网络成为计算机领域关键技术而荣获图灵奖。
Hinton的反向传播(BP)算法、LeCun对卷积神经网络(CNN)的推动以及Bengio对循环神经网络(RNN)的贡献是目前图像识别、语音识别、自然语言处理等获得跳跃式发展的基础。中国科学院张钹院士在《迈向第三代人工智能》一文中也提到这5位图灵奖得主在创建第二次AI中所做出的重大贡献。
▲2010-2020年图灵奖授予的计算机领域
(2)、人工智能领域获奖人数占据四分之一
由下图可见,过去十年,共有16位学者获得图灵奖。其中,包括5位人工智能领域学者获此殊荣,占比31%,这反映出人工智能在计算机学科中的地位已不容忽视。同时,人工智能领域图灵奖从初期的单独获奖者到近年来的共同获奖者,越来越呈现出高层次学者强强联合的研究趋势。
(3)、美国培养并拥有八成以上的图灵奖得主
过去十年的16位图灵奖获得者之中,有13位来自美国、2位来自英国、1位来自加拿大,如下图所示。在美国的13位图灵奖得主之中,有10位是在美国本国接受的全部高等教育、2位拥有美国和其他国家教育背景、仅1位没有美国教育背景。
其中,2011年获奖者JudeaPearl拥有以色列本科教育和美国纽约大学博士教育背景;2012年图灵奖得主SilvioMicali拥有意大利本科教育和美国加州伯克利大学博士教育背景。唯一没有美国教育背景的是2018年图灵奖得主YannLeCun,他仅有法国教育背景。八成以上图灵奖得主具有美国教育或工作背景的事实,反映出美国人工智能高层次人才培养的强势竞争力。
▲2010-2020年图灵奖得主所在国家及教育背景情况
(4)、欧洲培养的高层次人才中有三位被吸引到美国学习或工作并获图灵奖
从这些图灵获奖者的教育背景来看,美国与欧洲国家的学术交流非常多。YannLeCun拥有法国教育背景后到美国任职并获图灵奖;JudeaPearl和SilvioMicali分别从以色列和意大利被吸引到美国继续深造而拥有跨国双重教育背景,后来均到美国任职并在美国获得图灵奖。此外,英国的这两位图灵奖得主虽然均是在本国接受的高等教育并且获奖时都在本国,但都有过一些美国任职经历。
GeoffreyHinton博士毕业于英国爱丁堡大学,后来陆续在谷歌、卡内基梅隆大学、加州大学圣地亚哥分校等美国机构任职;TimBerners-Lee在英国牛津大学本科毕业后,也有过在麻省理工学院任职的经历。可见,美国的高等教育体系不仅培养的了自己本国的AI领域高端人才,而且从欧洲国家吸引和留住了多位领域精英。
(5)、仅加拿大图灵奖得主没有任何美国教育和任职经历
在这16位图灵奖获得者之中,仅有加拿大的YoshuaBengio在本国的麦吉尔大学接受了高等教育并在本国蒙特利尔大学任职,并于2018年因在深度神经网络概念和工程上的突破而获奖。这在一定程度上反映出加拿大在人工智能领域高层次人才培养和质量上较为成功。
(6)、图灵得主们在领域相关论文发表后需要平均等待37.1年之后才获奖
通过AMiner人才画像数据获取这些图灵奖得主所发表的第一篇与获奖理由相关主题的论文,计算得出该论文发表年份距离作者获得图灵奖时间,从而得到这些图灵得主的获奖时间长短,如下图所示。结果发现,图灵奖得主获奖时一般距离其首次发表获奖领域相关论文至少已经三十年以上,平均为37.1年。
其中,EdwinCatmull于2019年获得图灵奖,距离其在计算机图形学领域发表的最早论文Asystemforcomputergeneratedmovies已经过去了47年,等待获奖时间最久。而获奖等待时间最短的是TimBerners-Lee,他于1990年发表WorldWideWeb:ProposalforaHypertextProject论文,仅在26年后的2016年就因发明万维网、Web浏览器以及允许Web扩展的基本协议和算法获得图灵奖。
▲图灵奖得主的首篇领域论文发表距离获奖年份的时长
(7)、八成以上图灵得主获奖时已经度过了其科研论文高峰产出期
基于AMiner平台上各位图灵奖得主的论文数据和人物画像,分析发现,图灵奖得主一般会在获奖后保持原来的研究方向,但是他们的论文发表量却减少了。有80.1%的图灵得主在获图灵奖后的论文年均产出量低于其获奖前的年均论文产出量,如下图所示,这反映出他们在获得图灵奖时已经普遍过了其学术产出高峰时期。
▲2010-2020年图灵奖得主获奖前后的年均论文发表量
值得一提的是,YoshuaBengio,JudeaPearl和MichaelStonebraker三位学者是例外,他们在获得图灵奖之后的年均论文产出量较其获奖前均有不同程度的增加,分别增加了328.07%、49.53%和12.32%。其中,YoshuaBengio在2018年获得图灵奖后论文年均发表量激增特别明显,并在2019年发表96篇论文,达到其论文产出峰值,他的AMiner学术画像及年度论文发表量如下图所示。
▲2018年图灵奖获得者YoshuaBengio的AMiner学术画像
需要指出的是,部分图灵得主在获奖后的论文产出量减少除了其学术产出减少之外,还存在以下两个原因。
一是他们可能已不再全力进行学术研究,而是转向参与社会事业等,从而导致其获奖后的论文发表量减少。例如,WhitfieldDiffie在2015年因密码学的贡献获得图灵奖后,转向致力于促进信息安全和隐私权的保护;MartinHellman因密码学的贡献获得同年的图灵奖后,转向致力于研究国际安全与核武器削减。
二是也有少量图灵得主在发表相关论文后早已投身于工业界,例如,计算机图形学先驱EdwinCatmull在研究生毕业后就在卢卡斯、皮克斯等公司就职,早已离开学术界,曾担任Pixar动画和Disney动画的总裁,四次获电影Oscar奖(1993、1996、2001和2008),其AMiner学术画像及年度论文发表量如下图所示。
▲2019年图灵奖获得者EdwinCatmull的AMiner学术画像
3、媒体评选出的重大人工智能技术
自2001年起,《麻省理工科技评论》每年都会评选出当年的“十大突破性技术”。所评选出的技术榜单曾精准预测了脑机接口、智能手表、癌症基因疗法、深度学习等诸多热门技术的崛起,在全球科技领域具有举足轻重的影响力。
分析发现,媒体评出的人类突破性技术之中近30%与人工智能相关。通过分析挖掘2010-2020年《麻省理工科技评论》评选出当年的“十大突破性技术”,发现有32项项人工智能相关技术入选榜单,占比近30%,其中包括:2013年的深度学习、2014年的神经形态芯片、2016年的语音接口与知识分享型机器人、2017年的自动驾驶卡车与强化学习,2018年的流利对话的AI助手、给所有人的人工智能和对抗性神经网络、2019年的灵巧机器人,以及2020年的微型人工智能和人工智能发现分子。具体名单如下图所示。
▲2010-2020年入选《麻省理工科技评论》“十大突破性技术”榜单的人工智能相关技术
4、国际顶会顶刊最佳论文授予领域分析
人工智能领域顶级期刊和会议每年都会在众多学术研究论文之中,通过“双盲评审”,评选出最有新意和价值的研究论文作为最佳研究论文,并授予“BestPaper”奖项。每年大会的最佳论文奖一般分两类,一类是最佳研究论文(Researchtrack),另一类是最佳应用论文(Appliedtrack)。部分会议在每年选出多篇最佳论文(分列第一、二、三名),也有部分顶会每隔几年才会选出一篇最佳论文。
从过去十多年的经验来看,国际顶会历年的最佳研究论文都会对之后很多领域的研究有着开创性的影响。因此,不论是从阅读经典文献的角度,还是从学习最新研究成果的角度来说,分析和探讨每年的最佳研究论文都极具价值。
本部分收集整理了2011-2020年期间的人工智能领域国际顶级会议最佳论文奖项第一名的全部论文(对于不区分名次的最佳论文则全部收录),再对这些论文所属领域进行分析。统计发现,过去十年荣获“最佳论文”奖项的论文来自34个国际顶会、共计440篇,其中,researchtrack最佳论文409篇,占比93%。
各会议最佳论文量的具体分布如下表所示,FOCS、IEEEVIS、ISSCC等最佳论文数量较多主要是因为该会议每年颁发3篇杰出论文奖(OutstandingPaperAward)且不区分先后名次。ICASSP等会议最佳论文量较少主要是由于存在缺失数据。
▲2011-2020年人工智能领域国际顶级会议最佳论文授予量分布(单位;篇)
从所属细分研究领域来看,这些最佳论文覆盖了机器学习、计算机视觉、自然语言处理、机器人、知识工程、语音识别、数据挖掘、信息检索与推荐、数据库、人机交互、计算机图形学、可视化、安全与隐私、计算机网络、计算机系统、计算理论、经典AI、芯片技术等18个子领域。
(1)、顶会最佳论文奖呈现出较多跨领域授予现象
总体而言,尽管这些国际顶级会议将大部分的最佳论文奖都授予给了本会议所属的AI子领域,但是授予非本会议领域的最佳论文数量占比较高,达22.3%。其中,WSDM是数据挖掘领域重要国际会议,在它授予的最佳论文奖之中,有90.9%的最佳论文被授予给非数据挖掘领域的论文,在所有会议中占比最高。其次,KDD会议将88.9%最佳论文奖授予给非数据挖掘领域的论文,WWW会议将63.6%的最佳论文奖授予给非信息检索与推荐领域的论文。各个会议最佳论文授予情况具体如下表所示。
▲2011-2020年人工智能领域国际顶级会议最佳论文授予其他AI领域比例
(2)、信息检索与推荐、机器学习和计算理论出现较多的跨领域授予
从跨领域授予最佳论文奖的整体数量来看,信息检索与推荐、机器学习和计算理论是获得最佳论文奖项数量较多的三个领域,占比均超过10%,详细情况如下图所示。这反映出这三个子领域的跨领域研究成果所获的专业认可度较高,在一定程度上促进了相关技术在多个AI子领域的快速发展和进步。
▲人工智能领域国际顶级会议最佳论文奖跨AI子领域授予分布图
从来源会议来看,信息检索与推荐领域最佳论文除了被RecSys、SIGIR和WWW本领域会议最多授予之外,也较多被数据挖掘领域会议WSDM、数据库领域的SIGMOD和VLDB授予最佳论文奖,如下图所示。
▲信息检索与推荐领域最佳论文跨领域授予会议示例
(3)、机器学习技术成果集中在2016-2018年获得较多奖项认可
过去十年顶会最佳论文授予技术领域的年度趋势如下图所示,其中,色块颜色代表该项技术在某项会议所被授予的最佳论文数量,色块颜色越深表示论文数量越多。
从最佳论文奖被授予领域的年度趋势来看,机器学习领域过去十年内最佳论文在2016年被授予最多,为9篇,其次是2017和2018年,相关最佳论文数量均为8篇。从来源会议来看,共有14个顶会将最佳论文奖分别授予给机器学习领域。其中,最佳论文奖授予量较多的两大会议是InternationalConferenceonMachineLearning(ICML)和InternationalConferenceonLearningRepresentations(ICLR),分别为13和12篇。
▲人工智能领域国际顶刊顶会最佳论文授予领域年度趋势
4、安全与隐私领域最佳论文授予数量呈现增多趋势
随着人工智能快速发展和应用,许多领域开始注重技术的安全与隐私性。这体现在逐年增多的领域最佳论文数量上。尤其是2014年之后,安全与隐私领域年度最佳论文数量均超过5篇。
过去十年来,CCS、ICML、OSDI、S&P、SIGCOMM和WWW等顶会均曾授予过安全与隐私领域的最佳论文奖。安全与隐私的最佳论文授予主要来自于IEEESymposiumonSecurityandPrivacy(S&P)和ACMConferenceonComputerandCommunicationsSecurity(CCS)两大会议。
5、国际顶会顶刊领域高影响力论文分析
论文引用量是衡量一个科研文献被业界认可度的标志,也是该文献影响力的重要体现。本部分针对人工智能国际顶会顶刊2011-2020年期间的所发表论文的引用量特征及所属领域进行分析。结果分析发现,某一学术会议中引用量最高的论文未必是该会议授予最佳论文奖的论文,反之亦然。
分析还发现,人工智能不同子领域论文的最高引用量的量级跨度很大。如下图所示,2011-2020年期间人工智能国际顶会顶刊最高引用量前十论文研究以机器学习领域为首,其次是计算机视觉领域研究论文。机器学习和计算机视觉领到域论文的引用量级均达到25万次以上,明显高于其他子领域最高引用论文的引用量。在所有子领域之中,知识工程领域论文的引用量级最少,不足于机器学习领域论文引用量的2%。
▲2011-2020年人工智能国际顶会顶刊各子领域最高引用量前十论文的引用量分布
具体来看,人工智能各个子领域在过去十年中出现在国际顶级会议期刊上的最高影响力论文相关信息如下表所示。其中,计算机视觉领域最高影响力论文是2016年CVPR上、以FacebookAIResearch何恺明为第一作者的“DeepResidualLearningforImageRecognition”文章,其引用量已超过6万。
机器学习领域引用量最高的论文是发表在2015年ICLR会议上的“Adam:AMethodforStochasticOptimization”,该文是由GoogleBrain的DiederikP.,Kingma和加拿大多伦多大学的助理教授JimmyLeiBa联合发表,目前引用量将近6万。
▲2011-2020年人工智能子领域最高影响力论文
机器学习领域,影响力排名前10论文的引用率都超过万次,且半数以上论文引用率超过2万次,如表4-6所示。从论文研究主题来看,这这10篇最高影响力论文全部都是与深度学习相关的。从论文来源来看,这10篇最高影响力论文之中,有5篇来自NeurIPS、3篇来自ICLR、2篇来自ICML。
居于首位的是2015年ICLR会议上由GoogleBrain的DiederikP.,Kingma和加拿大多伦多大学的助理教授JimmyLeiBa联合发表的“Adam:AMethodforStochasticOptimization”论文。影响力排名第二位的是Apple公司研究员IanJ.Goodfellow发表在NeurIPS2014上的一篇论文“GenerativeAdversarialNets”,该文也是GANs的开山之作。影响力排名第三位的论文是Facebook科学家TomasMikolov发表在NeurIPS2013上的“DistributedRepresentationsofWordsandPhrasesandtheirCompositionality”。
▲2011-2020年机器学习领域最高影响力论文前十
计算机视觉领域,最高影响力前十论文如表4-7所示。其中,最高引用的论文是发布于2016年CVPR上、以FacebookAIResearch何恺明为第一作者的“DeepResidualLearningforImageRecognition”文章,其引用量已超过6万。
这篇论文也荣获了当年CVPRBestPaper奖项,联合作者还包括旷视科技的研究员张祥雨、首席科学家与研究院院长孙剑,以及当时就职于Momenta任少卿。该文是一篇非常经典的神经网络的论文,主要通过构建了一种新的网络结构来解决当网络层数过高之后更深层的网络的效果没有稍浅层网络好的问题,并且做出了适当解释以及用ResNet残差网络解决了问题。
▲2011-2020年计算机视觉领域最高影响力论文前十
自然语言处理领域,过去十年中最高影响力前十论文的具体信息如下表所示。其中,最高引用量论文是Google研究员JeffreyPennington在2014年EMNLP会议发表的论文“Glove:GlobalVectorsforWordRepresentation”,这篇论文提出的单词表示模型是通过仅训练单词-单词共现矩阵中的非零元素,而不是整个稀疏矩阵或大型语料库中的单个上下文窗口,来有效地利用统计信息。该模型产生一个具有有意义子结构的向量空间,在相似性任务和命名实体识别方面优于相关模型。
▲2011-2020年自然语言处理领域最高影响力论文前十
6、过去十年十大人工智能研究热点
过去十年十大AI研究热点分别为:深度神经网络、特征抽取、图像分类、目标检测、语义分割、表示学习、生成对抗网络、语义网络、协同过滤和机器翻译。
▲AMiner评选出的近十年十大AI研究热点
(1)、深度神经网络
深度神经网络是深度学习的基础,又被称为深度前馈网络(DFN)、多层感知机(Multi-Layerperceptron,MLP),可以理解为是有很多隐藏层的神经网络。深度神经网络可以在没有大量标记数据的情况下解决问题。代表算法包括卷积神经网络、循环神经网络、递归神经网络等。
深度神经网络的被引用量保持了较长时间的稳定平稳增长;深度卷积神经网络技术则于2014年开始获得更多引用。目前,深度神经网络(DNN)是许多人工智能应用的基础,从自动驾驶汽车、癌症检测到大型游戏等。在这许多领域中,DNN实现了超越人类的准确率。
数据显示,过去十年中,有5405篇以卷积神经网络为研究主题的论文在人工智能国际顶会顶刊论文中发表,其总引用量达299729,并且在这些顶会顶刊论文引用量排名前十的论文中出现过125次。该技术的最终指数评分为98.16,位列过去十年最热门AI研究主题之首。
(2)、特征抽取
特征抽取(FeatureExtraction)热门是信息检索与推荐中的一项技术,专指使用计算机提取一组测量值中属于特征性的信息的方法及过程,并将所抽取出的有效实体信息进行结构化存储。目前特征抽取已引入机器学习、深度学习、神经网络技术,其中,神经网络计算已应用于图片特征抽取。
针对某个特定图片,通过卷积神经网络对图片进行特征抽取得到表征图片的特征,利用度量学习方法如欧式距离对图片特征进行计算,对图片距离进行排序,得到初级检索结果,再根据图片数据的上下文信息和流形结构对图像检索结果进行重排序,从而提高图像检索准确率,得到最终的检索结果。
数据显示,过去十年中,有1747篇以特征抽取为研究主题的论文在人工智能国际顶会顶刊论文中发表,其总引用量达95205,并且在这些顶会顶刊论文引用量排名前十的论文中出现过8次。该技术的最终评分为21.51,位列过去十年AI研究热点亚军。
(3)、图像分类
图像分类(ImageClassification)是指计算机利用算法从给定的分类集合中给某个特定图像正确分配一个标签的任务,其目标是将不同的图像划分到不同的类别中,并实现最小的分类误差,较多应用于计算机视觉、信息检索与推荐领域。2012年,加拿大认知心理学家和计算机科学家GeoffreyEverestHinton的博士生AlexKrizhevsky在ILSVRC将深度学习用于大规模图像分类中并提出了CNN模型,其计算效果大幅度超越传统方法,获得了ILSVRC2012冠军,该模型被称作AlexNet。从AlexNet之后,涌现了一系列CNN模型,不断地在ImageNet上刷新成绩。目前的深度学习模型的识别能力已经超过了人眼。
数据显示,过去十年中,有612篇以图像分类为研究主题的论文在人工智能国际顶会顶刊论文中发表,其总引用量达50309,并且在这些顶会顶刊论文引用量排名前十的论文中出现过16次。该技术的最终评分为14.14,位列过去十年最热门AI研究主题第三名。
(4)、目标检测
目标检测(ObjectDetection)作为计算机视觉和图像处理领域一个分支,是指利用图像处理与模式识别等领域的理论和方法,检测出数字图像和视频中存在的特定类别的目标对象,确定这些目标对象的语义类别,并标定出目标对象在图像中的位置。对象检测是对象识别的前提,具有很大发展潜力。
对象检测已经有许多有用有趣的实际应用,如人脸识别、行人检测、视觉搜索引擎、计数、航拍图像分析等。深度学习模型在图像分类任务中碾压了其他传统方法。很多对象检测的新方法和新应用推动了深度学习最前沿的科技发展。
过去十年中,有472篇以目标检测为研究主题的论文在人工智能国际顶会顶刊论文中发表,其总引用量达49602次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过13次。该技术的最终评分为12.73,位列最热门AI研究主题第四名。
(5)、语义分割
语义分割(SemanticSegmentation)是让计算机根据图像的语义进行分割,判断图像中哪些像素属于哪个目标。近年来,许多语义分割问题正在采用深度学习技术来解决,最常见的是卷积神经网络,在精度上大大超过了其他方法以及效率。目前语义分割的应用领域主要有:地理信息系统、无人车驾驶、医疗影像分析和机器人等领域。
过去十年中,有275篇以语义分割为研究主题的论文在人工智能国际顶会顶刊论文中发表,其总引用量达27893次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过23次。该技术的最终评分为12.01,位列最热门AI研究主题第五名。
(6)、表示学习
表示学习(RepresentationLearning),是指将原始数据转换成能够被机器学习的一种深度学习技术。它能够从复杂的原始数据中提炼有效特征,剔除无效或者冗余信息,形成可用的数据表示。在知识表示学习中,词嵌入(WordEmbedding)是自然语言处理的重要突破之一,它可以将词表示为实数域向量,进而为机器学习和深度学习提供模型训练的基础。
近些年很多专家和学者利用词嵌入的表示学习原理进行相关领域的研究,主要的表示方法包括Word2Vec、One-hot、词共现等。这些方法已经成为当下人工智能技术应用的基础,为机器学习提供了高效的表示能力。
过去十年中,有711篇以表示学习为研究主题的论文在人工智能国际顶会顶刊论文中发表,其总引用量达49892次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过8次。该技术的最终评分为11.88,位列最具影响力AI技术第六名。
(7)、生成对抗网络
生成对抗网络(GenerativeAdversarialNetworks,GAN)是用于无监督学习的机器学习模型,由IanGoodfellow等人在2014年提出。由神经网络构成判别器和生成器构成,通过一种互相竞争的机制组成的一种学习框架。GAN功能强大,学习性质是无监督的,也不需要标记数据。
传统的生成模型最早要追溯到80年代的RBM,以及后来逐渐使用深度神经网络进行包装的AutoEncoder,然后就是现在的生成模型GAN。GAN具有大量的实际用例,如图像生成、艺术品生成、音乐生成和视频生成。此外,它还可以提高图像质量,并且完成图像风格化或着色、面部生成以及其他更多有趣的任务。
过去十年在人工智能国际顶会顶刊论文中发表有362篇以生成对抗网络为研究主题的论文,其总引用量达24536次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过22次。该技术的最终评分为11.44,位列最热门AI研究主题第七名。
(8)、语义网络
语义网络(SemanticNetwork)是一种以网络格式表达人类知识构造的形式,是人工智能程序运用的表示方式之一,相关研究主要集中在信息检索与推荐、知识工程领域。语义网络是一种面向语义的结构,它们一般使用一组推理规则,规则是为了正确处理出现在网络中的特种弧而专门设计的。语义网络可以深层次地表示知识,包括实体结构、层次及实体间的因果关系;无推理规律可循;知识表达的自然性可以直接从语言语句强化而来。
过去十年在人工智能国际顶会顶刊论文中有1192篇以语义网络为研究主题的论文发表,总引用量达44897次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过2次。语义网络技术的最终评分为10.60,位列最热门AI研究主题第八名。
(9)、协同过滤
协同过滤(CF)是推荐系统使用的一种技术,通过收集来自多个用户的偏好、兴趣、评价标准等用户行为数据来过滤信息,并自动预测(过滤)用户兴趣的方法,为用户提供有针对性的推荐及其所需信息。大多数协同过滤系统都应用基于相似度索引的技术。协同过滤是解决信息超载问题的一个有效办法。无论是基于用户-用户的协同过滤,还是项目-项目的协同过滤,都有效地提高了用户信息的使用效率。
过去十年在人工智能国际顶会顶刊论文中有289篇以协同过滤为研究主题的论文,其总引用量达36681次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过12次。该技术的最终评分为9.98,位列最热门AI研究主题第九名。
(10)、机器翻译
机器翻译(MachineTranslation),又称为自动翻译,是利用计算机把一种自然源语言转变为另一种自然目标语言的过程,通常指自然语言之间句子和全文的翻译。它是自然语言处理(NaturalLanguageProcessing)的一个分支,与计算语言学(ComputationalLinguistics)、自然语言理解(NaturalLanguageUnderstanding)之间存在密不可分的关系。
机器翻译是人工智能的终极目标之一,其核心语言理解和语言生成是自然语言处理的两大基本问题。近几年来,随着深度学习技术的发展,神经机器翻译取得了巨大进展,其生成的译文接近自然语句,成为了主流语言学习模型。
过去十年在人工智能国际顶会顶刊论文中发表有389篇以机器翻译为研究主题的论文,其总引用量达23119次,并且在这些顶会顶刊论文引用量排名前十的论文中出现过14次。该技术的最终评分为8.84,成为AI研究热点第十名。
02.
AI领域高层次人才分析
1、全球AI领域高层次人才
过去十年,全球人工智能发展迅速。中国、美国、欧盟、英国、德国等国家纷纷从战略上布局人工智能,加强顶层设计和人才培养。本报告数据显示,全球人工智能领域学者数量共计155408位,覆盖120多个国家,主要集中在北美洲、欧洲、东亚地区。
人工智能领域论文发表量反映了一个国家在领域的科研实力。在AI领域论文发表量TOP10的国家之中,美国、中国和德国的论文产出量分别位前三名,其余国家(英国、加拿大、日本、法国、澳大利亚、韩国和新加坡)领域论文产出量均在2万篇以下。
其中,美国在AI领域的论文发表数量和人才数量都位于全球第一,有近四成的全球AI领域论文产出是来自美国,并且美国AI学者数量约占全球领域学者总量的31.6%。
中国在人工智能领域的论文发表数量(25418篇)和人才数量(17368位)仅低于美国,同时,大幅领先于其他国家。这反映出中国近年来发布的从产业发展、教育等各个方面支持人工智能发展的一系列支持政策,以及不断加强人才培养和补齐人才短板的行动已见成效。
从子领域的领先国家来看,美国在人工智能领域具有明显的科研产出优势,在几乎所有子领域的论文产出量均居于全球首位。中国的AI科研产出水平在自然语言处理、芯片技术、机器学习、信息检索与挖掘等10多个子领域都紧随美国之后,并且,在多媒体、物联网领域的论文产出量超过美国、居于全球第一;而在人机交互、知识工程、机器人、计算机图形、计算理论领域,中国还需努力追赶。
AI高层次学者是指入选AI2000榜单的2000位人才。由于存在同一学者入选不同领域的现象,经过去重处理后,AI高层次学者共计1833位。从这些高层次学者分布看,如下图所示,AI领域全球高层次学者覆盖全球37个国家,主要集中在北美洲的美国地区;欧洲中西部也有一定的高层次学者分布;亚洲的高层次人才主要分布于中国、新加坡及日韩等地区;其他诸如南美洲、非洲等地区的高层次学者数量稀少。
▲全球人工智能领域高层次学者分布
从国家角度看AI高层次学者分布,美国AI高层次学者的数量最多,有1244人次,占比62.2%,超过总人数的一半以上,且是第二位国家数量的6倍以上。中国排在美国之后,位列第二,有196人次,占比9.8%。德国位列第三,是欧洲学者数量最多的国家;其余国家的学者数量均在100人次以下。人工智能领域高层次学者人数TOP10的国家如下图所示。
▲人工智能领域高层次学者数量TOP10国家
总体来看,全球范围内,美国和中国的机构在人工智能领域的论文产出和学者数量较多,占据了AI领域论文量排名前10机构的全部席位。从AI高层次人才分布看,全球AI高层次人才隶属于各个国家的高等院校或高科技公司的科研部门。
如下图所示,全球人工智能领域高层次学者量TOP10机构之中,位居首位的是美国的谷歌公司,拥有185人,也是唯一一家高层次学者数过百的机构;从国家分布来看,清华大学是唯一入选TOP10的中国机构,其余均为美国机构,且美国机构高层次学者总体人数遥遥领先。
▲全球人工智能领域高层次学者量TOP10机构
从子领域论文量来看,美国的大学和科技机构在AI各个细分方向上的发展较为均衡,且在自然语言处理、芯片技术、机器学习、信息检索与挖掘、人机交互等10多个子领域的发展居于全球领先席位。这反映出美国在人工智能领域的顶级实力。
中国的AI机构在语音识别、经典AI、计算机网络、多媒体、可视化和物联网等领域实力较强,进入全球先进行列。这些机构主要是位于北京的清华大学、中科院和北京邮电大学,以及浙江大学。
2、中国AI领域高层次人才
过去十年,我国人工智能发展迅猛。2017年,人工智能首次被写入全国政府工作报告,我国确定新一代人工智能发展三步走战略目标,并将人工智能上升为国家战略层面。本报告数据显示,我国人工智能领域学者数量共计17368位,覆盖100多个国内城市。从地域分布来看,我国AI人才主要集中在京津冀、长三角和珠三角地区。
国内AI领域高层次人才也主要分布在京津冀、长三角和珠三角地区,如下图所示。其中,京津冀地区(主要是北京市)在AI领域的高层次人才数量最多。长三角地区也有较多的AI高层次人才分布。相比之下,内陆地区领域高层次人才较为缺乏。在学者分布地图中,颜色越深,表示学者越集中;颜色越浅,表示学者越稀少。
▲我国人工智能领域高层次人才的省市分布图
从AI高层次学者分布来看,北京仍是拥有AI高层次学者数量最多的国内城市,有79位,占比45.4%,接近于国内AI高层次人才的一半,如下图所示。北京作为政治中心、文化中心、国际交往中心、科技创新中心具有先天优势,拥有数量众多的AI企业和多所知名高校和研究机构,北京的高水平AI论文发表量和高层次学者量明显领先于其他国内城市。同时,从子领域发展来看,北京在AI各个细分方向上的发展较为均衡,相关论文产出量均居于全国领先位置。
▲人工智能领域高层次学者数量TOP10的中国城市
国内人工智能领域研究领先的机构主要以北京、香港、杭州、上海等地的高等院校为主。北京在人工智能领域的资源优势,该城市拥有清华大学、北京大学、中国科学院等知名高校。杭州和香港的机构也处于AI子领域研究前列,主要由于前者拥有阿里巴巴和浙江大学,后者则因其香港科技大学和香港中文大学等实力高校。
在国内机构之中,北京的清华大学不仅拥有AI领域学者数量最多,而且所拥有的领域高层次人才数量也居于国内首位,有27位。国内高层次AI人才基本都隶属于高校。香港中文大学、浙江大学和中国科学院在人工智能领域的高层次学者数量分别为16、14和11位。其他的国内机构所拥有的AI领域高层次人才数量均不足十位,如下图所示。
▲人工智能领域高层次学者数量TOP10的中国机构
中国AI领域高层次人才培养从2018年起开始重点发展,主要由高校通过成立AI学院研究院立、设立AI专业的方式进行培养。教育部在《高等学校人工智能创新行动计划》(教技〔2018〕3号)中提出,要加强人工智能领域专业建设,形成“人工智能+X”复合专业培养新模式。
到2020年建设100个“人工智能+X”复合特色专业,建立50家人工智能学院、研究院或交叉研究中心,并引导高校通过增量支持和存量调整,加大人工智能领域人才培养力度。到2020年,高校要基本完成新一代人工智能发展的高校科技创新体系和学科体系的优化布局。到2030年,高校要成为建设世界主要人工智能创新中心的核心力量和引领新一代人工智能发展的人才高地。
教育部于2019年3月颁布《关于公布2018年度普通高等学校本科专业备案和审批结果的通知》,将人工智能专业列入新增审批本科专业名单,专业代码为080717T(T代表特设专业),学位授予门类为工学。在此之前,国内没有高校在本科阶段设置人工智能专业。
2020年2月,教育部颁布《关于公布2019年度普通高等学校本科专业备案和审批结果的通知》。统计结果显示,人工智能方面,本次全国范围内获得人工智能专业首批建设资格的共有180所,相比2018年的35所,增加414%,反映出人工智能专业的热度攀升。
截至目前,国内共有215所高校成立“人工智能”本科专业。这些高校之中,有60所双一流大学(占比28%),其他155所为普通本科院校。
从地域分布看,2019年度新增人工智能专业较多的省份依次是山东14所、江苏13所、北京11所、安徽10所、河南10所、四川10所,其余省份新增人工智能专业的高校数量均不足10所。但这些数字加起来占全国高校总量比例仍然较小,高校人工智能本科教育仍处于起步和发展阶段。
在AI人才紧缺,国家政策推动AI发展趋势等因素影响下,相比于建设人工智能专业,很多高校更愿意设立一个人工智能研究独立学院。截至2019年6月,至少有38所高校设立了独立人工智能学院,全面开展本科阶段、研究生阶段的教育,并且在2019年开始以人工智能专业招收本科生。
据统计,截止到2019年年底,我国已经有66所高校成功建设人工智能学院、研究院、研究中心或研究所,超额完成了教育部在《高等学校人工智能创新行动计划》中强调的到2020年在全国高校中建立50家人工智能学院、研究院或交叉研究中心的目标。
总之,中国各大高校设立人工智能一级学科、建立人工智能学院,有助于精准布点人工智能相关专业以满足国家和区域的产业发展需求,有助于加快建设一流人才队伍和高水平创新团队、进一步推动国际学术交流与合作、专业和教材建设,提高人才培养质量,推动科技成果转化。
03.
人工智能专利分析
专利是创新成果的应用表现形式。本部分将通过人工智能领域专利分析,挖掘该技术的创新应用情况。以墨创全球专利数据库作为数据来源,使用行业专家和相关技术领域专利审查专家共同给出的人工智能领域关键词在标题和摘要中进行检索,搜索时间范围限定为2011-2020年。
专利数据分析发现,随着核心算法的突破、计算能力的迅速提升以及海量数据的支撑,过去十年的人工智能专利申请量呈现逐渐上升态势。
1、全球AI专利分析
全球范围内,过去十年人工智能领域的专利申请量521264,总体上呈逐年上升趋势,如下图所示。
▲全球人工智能专利申请量年度变化趋势
全球AI专利申请数量排名领先的国家/地区如下图所示。从图中可以看出,目前,全球人工智能专利申请集中在中国、美国、日本、韩国。其中,中国和美国处于领先地位,遥遥领先其他国家。中国专利申请量为389571,位居世界第一,占全球总量的74.7%,是排名第二的美国的8.2倍。
▲全球AI专利申请量Top10国家
过去十年,全球人工智能专利申请之中,将近一半的申请人是来自于企业。高校和研究所的相关申请量共计约两成。
▲全球AI专利申请类型分布
人工智能专利申请量前十的机构集中在日本、中国、韩国和美国。其中,日本的佳能是一家致力于图像、光学和办公自动化产品的公司,该公司的绝大多数专利都与成像有关,申请量最高的人工智能功能应用类别是计算机视觉。美国IBM公司的专利申请很多都与IBM的自然语言处理和机器学习技术有关。中国的国家电网的专利申请多与电网控制、配电利用网络、风电场、绿色能源等领域的人工智能开发有关。
▲全球AI专利申请人排名TOP10
2、中国AI专利分析
过去十年,中国人工智能领域的专利申请量389571,约占全球申请量的74.7%。总体上,国内的人工智能相关专利申请量呈逐年上升趋势,并且在2015年后增长速度明显加快,如下图所示。
▲中国人工智能专利申请量年度趋势
中国各省市AI专利申请数量的分布情况如下图所示。从图中可以看出,广东省的AI专利申请量以72737位居第一,比排名第二的北京市(50906)多出42.8%,具有突出优势。前十名的省份主要分布在东部、中部、西部等地区,分布较为均衡,但是以东部省市居多,江浙沪三省市均位居前五名。这与这些地区的经济水平、发展程度、科研投入及知识产权保护等因素密切相关。
▲全国AI专利申请量TOP10省份
中国AI专利申请数量排名前十的机构如下图所示,包括5家企业和5所高校,主要分布在广东、北京、浙江和四川。目前中国在AI专利领域的创新主要还是依靠高科技互联网企业和高校科研机构等方面的共同努力。国家电网专利申请量最多,其次是腾讯科技,体现出这两家企业在AI领域的创新能力比较突出,对相关技术领域的引领作用较强。
▲中国AI专利申请量TOP10机构
04.
未来机遇与挑战
1、未来发展机遇
目前,全球已有美国、中国、欧盟、英国、日本、德国、加拿大等10余个国家和地区纷纷发布了人工智能相关国家发展战略或政策规划,用于支持AI未来发展。这些国家几乎都将人工智能视为引领未来、重塑传统行业结构的前沿性、战略性技术,积极推动人工智能发展及应用,注重人工智能人才队伍培养。这是AI未来发展的重要历史机遇。
美国:指定AI研究为政府优先事项并调入更多支持资金和资源。美国高度重视人工智能全面发展,包括立法、研发投资、人才培养等多个方面纷纷给予支持。2016年,美国国家科学技术委员会(NSTC)发布《国家人工智能研发战略计划》全面布局人工智能发展。与此同时,美国总统办公室发布报告《为未来人工智能做好准备》,以应对人工智能带来的潜在风险,以及《人工智能、自动化与经济报告》,强调人工智能驱动的自动化对经济发展的影响。
2018年,美国白宫首次将人工智能指定为政府研发的优先事项,并且成立人工智能特别委员会,旨在协调联邦政府各机构之间人工智能研发优先事项,并向白宫提出行动建议,以确保美国人工智能技术的领导地位。美国国防部高级研究项目局宣布投资20亿美元开发下一代人工智能技术。美国国会两院讨论包括《人工智能未来法案》《人工智能就业法案》和《国家安全委员会人工智能法案》等法案。五角大楼成立了“联合人工智能中心”,确保国防部对人工智能相关数据信息的高效利用。
2019年,美国白宫科学和技术政策办公室(OSTP)发布了由总统特朗普签署的《美国人工智能倡议》,将人工智能的重要性上升到美国经济安全和国家安全的层面,要求调配更多联邦资金和资源转向人工智能研究,并呼吁美国主导国际人工智能标准的制定,开展人工智能时代美国劳动力培养的研究。白宫还对《国家人工智能研发战略计划》进行了更新,确定了联邦投资于人工智能研发的优先事项。
美国防部网站公布《2018年国防部人工智能战略摘要——利用人工智能促进安全与繁荣》,并成立联合人工智能中心(JAIC),旨在加快人工智能快速赋能关键作战任务,统筹协调人工智能研发项目,积极维持美国在AI方面的战略地位。同年,国防授权法案批准设立人工智能国家安全委员会,该委员会旨在全面审查、分析人工智能技术及系统;商务部成立白宫劳动力委员会,以帮助美国储备人工智能等新兴科技发展所需的人才;国家科学基金会持续资助人工智能基础研究领域。
欧盟:重视并推动AI发展中的伦理和安全理念。欧盟在人工智能发展战略中坚持推行以人为本的理念,在2018年发布了《欧盟人工智能战略》,推动欧盟人工智能领域的技术研发、道德规范制定以及投资规划,并计划在2020年底至少投入200亿欧元。随后,欧盟宣布在“地平线2020”研究与创新项目中对人工智能研发投入15亿欧元的专项资金,将资助创建欧洲人工智能生态系统的支撑平台。
欧盟专门设立了高级别人工智能专家组(AIHLEG),就人工智能的投资和政策制定提出建议,为人工智能的道德发展制定指导方针。该专家组制定了《可信赖的人工智能道德准则草案》,提出实现可信赖人工智能的道德准则和具体要求,包括数据保护和数据透明度等问题。该草案是欧盟为增加政府和私营部门人工智能领域合作的提出的三大战略之一,三大战略包括:增加政府和私营部门对人工智能的投资、为人工智能可能引发的社会和经济变革做好准备、建立适当的人工智能道德和法律框架。
此外,欧盟成员国还于2018年签署了《人工智能合作宣言》,就人工智能可能引发的社会、经济、伦理道德和法律等重要问题开展合作,确保欧洲在人工智能研发和应用上具有强大竞争力。随后,又发布《促进人工智能在欧洲发展和应用的协调行动计划》,提出设计伦理和设计安全两大关键原则,旨在使欧盟成为发展前沿、符合道德伦理、安全的人工智能技术的世界领先地区,强调将通过以人为本的方式促进人工智能技术发展。
2019年,欧盟启动了AIFOREU项目,建立人工智能需求平台、开放协作平台,整合汇聚21个成员国79家研发机构、中小企业和大型企业的数据、计算、算法和工具等人工智能资源,提供统一开放服务。此外还发布了《人工智能伦理准则》,以提升人们对人工智能产业的信任。
英国:不断加大政策、资金、人才和国际合作方面的布局力度。英国政府在2017年发布的《产业战略:建设适应未来的英国》中,确立了人工智能发展的四个优先领域:将英国建设为全球AI与数据创新中心;支持各行业利用AI和数据分析技术;在数据和人工智能的安全等方面保持世界领先;培养公民工作技能。随后,发布了《在英国发展人工智能》,建议建立人工智能和数据科学的艾伦·图灵研究所,旨在与其他公共研究机构建立合作,统筹协调针对人工智能研究的计算能力。
2018年,英国政府发布《产业战略:人工智能领域行动》,这是英国政府和产业界做出的首份发展人工智能的承诺,将采取切实行动推进人工智能发展,促进英国人工智能和数字驱动的经济蓬勃发展。英国政府在《人工智能领域行动》等多个人工智能方面的政策文件中,提出政府提高研发经费投入,优先支持关键领域的创新等措施。
这些举措包括:未来10年,英国政府将研发经费(包括人工智能技术)占GDP的比例提高到2.4%;2021年研发投资将达125亿英镑;从“产业战略挑战基金”中拨款9300万英镑,用于机器人与AI技术研发等。英国政府也积极推出针对初创企业的激励政策。
近年来,英国政府不断加大政策、资金、人才、国际合作等方面的布局力度。在政策方面,据英国政府2018年推出的《工业战略:人工智能产业政策》报告显示,过去3年英国发布了包括人工智能产业在内的工业战略白皮书、人工智能产业政策等各项措施,并成立了人工智能发展委员会、数据伦理与创新中心、人工智能发展办公室及工业战略挑战基金等相关机构,以推动人工智能的发展。在资金方面,英国规划制定了金额超9亿英磅(约78.7亿元人民币)的一揽子人工智能产业扶持计划,还将投资谷歌、亚马逊、“人工智能元素”(ElementAI)以及“慧与科技”(HPE)等一系列跨国科技公司。
2019年2月,英国政府宣布投资1300万英镑(约1.13亿元人民币)支持40个人工智能及数据分析项目,旨在提升生产力,改善英国的专业服务。在人才方面,自2017年起,英国计划将在4年内培育8000名计算机科学教师;未来7年,通过培训让5000名学生具备多样化的数字技术;支持新增450个与人工智能相关的博士点;加大包括人工智能人才在内的海外特殊人才引进力度,每年增加1000名至2000名人才引进。
在国际合作方面,2018年7月,英国与法国签订五年协议,在人工智能等数字产业领域加强双方高端科研中心的合作;2019年1月,英国决定与日本在机器人、数据等领域加强深度合作。
德国:用AI+工业4.0打造“人工智能德国造”品牌。德国政府早在2013年提出的“工业4.0”战略中,就已经涵盖了人工智能。2018年,德国联邦政府颁布了《高科技战略2025》,提出“推进人工智能应用,使德国成为人工智能领域世界领先的研究、开发和应用地点之一”,还明确提出建立人工智能竞争力中心、制定人工智能战略、组建数据伦理委员会、建立德法人工智能中心等。
在《联邦政府人工智能战略》中制定三大战略目标,以及包括研究、技术转化、创业、人才、标准、制度框架和国际合作在内的12个行动领域,旨在打造“人工智能德国造”品牌。在资金投入方面,德国政府宣布将首先投入5亿欧元用于2019年及之后几年的人工智能发展,并将在2025年底累计投入30亿欧元。德国经济和能源部在2019年发布的《国家工业战略2030》(草案)中,也多次强调人工智能的重要性。
2020年1月15日,德国柏林工业大学宣布成立新的人工智能研究所,进一步开展人工智能科研和人才培养。德国联邦政府将在人工智能战略框架内对该研究所追加预算,预计到2022年时,研究所将获得3200万欧元财政支持。柏林市政府也将为研究所新增人工智能岗位。
日本:主张构建有效且安全应用的“AI-Ready社会”。日本政府积极发布国家层面的人工智能战略、产业化路线图。2016年成立了人工智能技术战略委员会,作为人工智能国家层面的综合管理机构,以制定人工智能研究和发展目标以及人工智能产业化路线图,负责推动总务省、文部省、经产省以及下属研究机构间的协作,进行人工智能技术研发。该委员会有11名成员,分别来自学术界、产业界和政府。
2017年,日本发布《人工智能技术战略》,确定了在人工智能技术和成果商业化方面,政府、产业界和学术界合作的行动目标。2018年,日本发布《综合创新战略》提出要培养人工智能领域技术人才,确保在2025年之前每年培养和录用几十万名IT人才。此外,还发布了《集成创新战略》,将人工智能指定为重点发展领域之一,提出要加大其发展力度,同时强调要加强人工智能领域人才培养。
2018年12月27日,日本内阁府发布《以人类为中心的人工智能社会原则》推进人工智能发展,从宏观和伦理角度表明了日本政府的态度,主张在推进人工智能技术研发时,综合考虑其对人类、社会系统、产业构造、创新系统、政府等带来的影响,构建能够使人工智能有效且安全应用的“AI-Ready社会”,于2019年3月正式公布。
此原则是将人工智能(ArtificialIntelligence,AI)视为未来的关键科技,但在研发应用上,须以联合国的持续发展目标(SustainableDevelopmentGoals,SDGs)为基础,以落实日本“超智能社会”(Society5.0)为准则,其基本理念是Dignity、Diversity&Inclusion及Sustainability,并且建构“尊重人类尊严”、“不同背景的大众皆能追求幸福”及“持续性”的社会。
韩国:提升领域竞争力发展成为“AI强国”。韩国政府于2019年12月17日公布“人工智能(AI)国家战略”,以推动人工智能产业发展。该战略旨在推动韩国从“IT强国”发展为“AI强国”,计划在2030年将韩国在人工智能领域的竞争力提升至世界前列。
并且,提出构建引领世界的人工智能生态系统、成为人工智能应用领先的国家、实现以人为本的人工智能技术。在人工智能生态系统构建和技术研发领域,韩国政府将争取至2021年全面开放公共数据,到2024年建立光州人工智能园区,到2029年为新一代存算一体人工智能芯片研发投入约1万亿韩元。
其他国家:
加拿大在2017年宣布了泛加拿大人工智能战略,承诺提供1.25亿加元的加拿大人工智能研究与开发。这一战略旨在增加加拿大的AI和毕业生人数。在埃德蒙顿、蒙特利尔和多伦多建立科学卓越中心。建立加拿大在AI经济、伦理、政策和法律研究方面的全球思想领导地位。
法国于2018年3月发布AI战略,将投入1.5亿欧元把法国打造成AI研究、训练和行业的全球领导者。该计划由四个部分组成,一是宣布国家人工智能计划,将在法国各地建立一个由四五个研究机构组成的网络;二是将制定一项开放数据政策,推动人工智能在医疗等领域应用;三是政府将创建一个监管和金融框架,以支持国内“人工智能冠军企业”的发展;四是政府将制定道德规范。
印度在2018年6月发布《人工智能国家战略》,探求如何利用人工智能来促进经济增长和提升社会包容性,寻求一个适用于发展中国家的AI战略部署。该战略旨在提高印度人的工作技能,投资于能够最大限度地提高经济增长和社会影响的研究和部门,以及将印度制造的人工智能解决方案推广到其他发展中国家。
以色列于2019年11月发布了国家级人工智能计划,提出以色列要成为人工智能的世界五大国之一。并且政府以五年为一期,每年投资10至20亿新谢克尔(约2.89亿至5.8亿美元)开发人工智能技术,总共投资100亿新谢克尔(约28.93亿美元)于人工智能领域。
西班牙于2019年3月发布《西班牙人工智能研究、发展与创新战略》,认为最优先事项是建立一个有效的机制,以保障人工智能的研究、发展、创新,并评估人工智能对人类社会的影响。
中国AI发展支持政策:党和国家高度重视AI发展,从产业发展、教育等各个方面支持人工智能的发展。习近平总书记也曾多次强调用人工智能开辟社会治理新格局、人工智能为高质量发展赋能。早在2015年,《国务院关于积极推进“互联网+”行动的指导意见》就提出加快人工智能核心技术突破,促进人工智能在智能家居、智能终端、智能汽车、机器人等领域推广应用的目标。近年来发布了一系列的支持人工智能发展政策,如下图所示。
▲中国人工智能发展重要支持政策
进入2020年,国家大力推进并强调要加快5G网络、人工智能、数据中心等新型基础设施建设进度。人工智能技术被视为新一轮产业变革的核心驱动力量。此外,教育部、国家发展改革委、财政部联合发布了《关于“双一流”建设高校促进学科融合加快人工智能领域研究生培养的若干意见》,提出要构建基础理论人才与“人工智能+X”复合型人才并重的培养体系,探索深度融合的学科建设和人才培养新模式。7月,国家标准化管理委员会、中央网信办、国家发展改革委、科技部、工业和信息化部联合印发《国家新一代人工智能标准体系建设指南》(国标委联〔2020〕35号),以加强人工智能领域标准化顶层设计,推动人工智能产业技术研发和标准制定,促进产业健康可持续发展。
2、人工智能未来技术研究方向
人工智能经历几波浪潮之后,在过去十年中基本实现了感知能力,但却无法做到推理、可解释等认知能力,因此在下一波人工智能浪潮兴起时,将主要会去实现具有推理、可解释性、认知的人工智能。2015年,张钹院士提出第三代人工智能体系的雏形。2017年,DARPA发起XAI项目,核心思想是从可解释的机器学习系统、人机交互技术以及可解释的心理学理论三个方面,全面开展可解释性AI系统的研究。2018年底,第三代人工智能的理论框架体系正式公开提出,核心思想为:
(1)建立可解释、鲁棒性的人工智能理论和方法;
(2)发展安全、可靠、可信及可扩展的人工智能技术;
(3)推动人工智能创新应用。
其中具体实施的路线包括:
(1)与脑科学融合,发展脑启发的人工智能理论;
(2)探索数据与知识融合的人工智能理论与方法。虽然还没有明确第三代人工智能是什么,但是其趋势是清晰的。
Gartner2020年人工智能技术成熟度曲线图显示,如下图所示。2020年人工智能技术成熟度曲线共有30项技术出现,其中有17项技术需要2到5年才能达到成熟期,有8项技术需要5到10年才能达到成熟期。出现的这些技术基本处于创新萌芽期、期望膨胀的顶峰期和泡沫低谷期,而“稳步爬升的光明期”和“实质生产的高峰期”出现的技术寥寥无几,仅有InsightEngines(洞察引擎)和GPUAccelerators(GPU加速器)。
▲Gartner2020年人工智能技术成熟度曲线图
通过对2020年人工智能技术成熟度曲线分析,并结合人工智能的发展现状,本报告认为人工智能下一个十年重点发展的方向包括:强化学习(ReinforementLearning)、神经形态硬件(NeuromorphicHardware)、知识图谱(KnowledgeGraphics)、智能机器人(SmartRobotics)、可解释性AI(ExplainableAI)、数字伦理(DigitalEthics)、自然语言处理(NaturalLanguageProcessing)等技术处于期望膨胀期,表明人们对AI最大的期待,达到稳定期需要5-10年,是AI未来十年重点发展方向。
(1)强化学习(ReinforementLearning。)。强化学习用于描述和解决智能体在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。强化学习不受标注数据和先验知识所限制,而是通过接收环境对动作的奖励(反馈)获得学习信息并更新模型参数。由于智能体和环境的交互方式与人类和环境的交互方式类似,强化学习可以认为是一套通用的学习框架,可用来解决通用人工智能的问题。
(2)神经形态硬件(NeuromorphicHardware。)。神经形态硬件旨在用与传统硬件完全不同的方式处理信息,通过模仿人脑构造来大幅提高计算机的思维能力与反应能力。采用多进制信号来模拟生物神经元的功能,可将负责数据存储和数据处理的元件整合到同一个互联模块当中。从这一意义上说,这一系统与组成人脑的数十亿计的、相互连接的神经元颇为相仿。神经形态硬件能够大幅提升数据处理能力和机器学习能力,能耗和体积却要小得多,为人工智能的未来发展提供强大的算力支撑。
(3)知识图谱(KnowledgeGraphics。)。要实现真正的类人智能,机器还需要掌握大量的常识性知识,以人的思维模式和知识结构来进行语言理解、视觉场景解析和决策分析。知识图谱将互联网的信息表达成更接近人类认知世界的形式,提供了一种更好地组织、管理和理解互联网海量信息的能力,被认为是从感知智能通往认知智能的重要基石。
从感知到认知的跨越过程中,构建大规模高质量知识图谱是一个重要环节,当人工智能可以通过更结构化的表示理解人类知识,并进行互联,才有可能让机器真正实现推理、联想等认知功能。清华大学唐杰教授在知识图谱的基础上提出的“认知图谱=知识图谱+认知推理+逻辑表达”,为人工智能未来十年的发展提供了研究方向。
(4)、智能机器人(IntelligentRobot)。智能机器人需要具备三个基本要素:感觉要素、思考要素和反应要素。感觉要素是利用传感器感受内部和外部信息,如视觉、听觉、触觉等;思考要素是根据感觉要素所得到的信息,思考出采用什么样的动作;反应要素是对外界做出反应性动作。
智能机器人的关键技术包括多传感器信息融合、导航与定位、路径规划、智能控制等。由于社会发展的需求和机器人应用行业的扩大,机器人可以具备的智能水平并未达到极限,影响因素包括硬件设施的计算速度不够、传感器的种类不足,以及缺乏机器人的思考行为程序难以编制等。
(5)、可解释人工智能(ExplainableAI)。虽然深度学习算法在语音识别、计算机视觉、自然语言处理等领域取得令人印象深刻的性能,但是它们在透明度和可解释性方面仍存在局限性。深度学习的不可解释性已经成为计算机领域顶级会议(如NIPS)火药味十足的讨论话题。一些方法尝试将黑盒的神经网络模型和符号推理结合了起来,通过引入逻辑规则增加可解释性。
此外,符号化的知识图谱具有形象直观的特性,为弥补神经网络在解释性方面的缺陷提供了可能。利用知识图谱解释深度学习和高层次决策模型,是当前值得研究的科学问题,可以为可解释的AI提供全新视角的机遇。张钹院士指出当前人工智能的最大问题是不可解释和不可理解,并提倡建立具有可解释性的第三代人工智能理论体系。
(6)、数字伦理(DigitalEthics。)。作为新一轮科技革命和产业变革的重要驱动力,人工智能已上升为国家战略,人工智能将会在未来几十年对人类社会产生巨大的影响,带来不可逆转的改变。人工智能的发展面临诸多现实的伦理和法律问题,如网络安全、个人隐私、数据权益和公平公正等。
为了让人工智能技术更好地服务于经济社会发展和人民美好生活,不仅要发挥好人工智能的“头雁”效应,也要加强人工智能相关法律、伦理、社会问题等方面的研究。数字伦理将是未来智能社会的发展基石,只有建立完善的人工智能伦理规范,处理好机器与人的新关系,我们才能更多地获得人工智能红利,让技术造福人类。
(7)、自然语言处理(NatureLanguageProcessing)。深度学习在自然语言处理取得了巨大突破,它能够高效学习多粒度语言单元间复杂语义关联。但是仅仅依靠深度学习并不能完成对自然语言的深度理解。对自然语言的深度理解需要从字面意义到言外之意的跃迁,这需要引入复杂知识的支持。
丰富的语言知识能够提升模型的可解释性,可覆盖长尾低频语言单位的知识规则能够提升模型的可扩展性,而异质多样的知识与推理体系能够提升模型鲁棒性。因此有必要研究知识指导的自然语言处理技术,揭示自然语言处理和知识产生及表达的机理,建立知识获取与语言处理双向驱动的方法体系,实现真正的语言与知识智能理解。
3、面临的问题
随着人工智能的快速发展和应用,人们越来越重视随之而来的安全和伦理问题。AI发展面临着诸多安全和伦理方面的挑战。安全挑战主要包括三个方面:一是人工智能可以替代体力劳动和脑力劳动,相应的岗位替代作用影响着人类就业安全;二是建立在大数据和深度学习基础上的人工智能技术,需要海量数据来学习训练算法,带来了数据盗用、信息泄露和个人侵害的风险。
许多个人信息如果被非法利用,将会构成对隐私权的侵犯。三是人工智能具有强大的数据收集、分析以及信息生成能力,可以生成和仿造很多东西,甚至包括人类自身。随之而生的虚假信息、欺诈信息不仅会侵蚀社会的诚信体系,还会对国家的政治安全、经济安全和社会稳定带来负面影响。
人工智能发展面临的伦理挑战主要来自以下方面。一是人们对智能化的过度依赖。人工智能发展带来的简易、便捷的智能化工作和生活方式的同时,严重挤占了人们用于休息的自由时间、用于劳动的工作时间和用于个人全面发展的时间,由此催生了许多人的懒惰和对智能产品的过度依赖;同时,个性化新闻推荐或者自动生成的新闻,真假难辨的广告和宣传给人们封闭在“信息茧房”里。甚至逐渐失去了独立自由决策的能力,成为数据和算法的奴隶。
二是情感计算技术和类脑智能技术的创新融合发展,可能扰乱人们对于身份和能动性的认知。人类大脑与机器智能直接连接,会绕过大脑和身体正常的感觉运动功能;增强型神经技术的应用也可能改变人的体能和心智。这是对人类社会的道德社会规范和法律责任的挑战。
三是智能算法歧视将带来的偏见。人工智能以大数据和深度学习为基础,数据、算法以及人为因素会导致计算结果的偏见和非中立性,比如性别歧视、种族歧视以及“有色眼镜”效应。数据和算法导致的歧视往往具有更大的隐蔽性,更难以发现和消除。例如,微软在Twitter上上线的聊天机器人Tay在与网民互动过程中,由于大量恶意数据的输入,成为集性别歧视、种族歧视等于一身的“流氓”,它不但辱骂用户,还发表了种族主义评论和煽动性的政治宣言。
四是人工智能对人类造成的威胁和伤害。智能武器是可自动寻找、识别、跟踪和摧毁目标的现代高技术兵器,包括精确制导武器、智能反导系统、无人驾驶飞机、无人驾驶坦克、无人驾驶潜艇、无人操作火炮、智能地雷、智能鱼雷和自主多用途智能作战机器人等,它将成为未来战场主力军,信息处理和计算能力成为战争胜负的决定因素。人工智能武器是继火药和核武器之后战争领域的第三次革命。人工智能如果被赋予伤害、破坏或欺骗人类的自主能力,将是人类的灾难,后果难以想象。
面对人工智能带来的安全和伦理问题,受到越来越多各方关注和应对。2020年,美国国防部下属的国防创新委员会推出了《人工智能伦理道德标准》,公布了人工智能五大伦理原则,即负责、公平、可追踪、可靠和可控。无论作战还是非作战人工智能系统,均须遵守上述原则,否则美国防部将不予部署。牛津大学成立了人工智能伦理研究所(InstituteforEthicsinAI),并委任了由7位哲学家组成的首个学术研究团队。中国人工智能学会伦理专业委员会也正着手进行中国人工智能伦理规范研究。
科技是未来竞争的制高点。虽然科技无国界,但是科技公司有国界。当前世界各国对人工智能技术发展都不遗余力地投入和支持,同时,还使用不同方法保护自己的科技成果,封锁前沿技术和“卡脖子”技术外流路径,这将在一定程度上限制人工智能技术创新要素的自由流动。
从全球范围来看,中国和美国人工智能领域科研论文和专利产出数量最多的两个国家。但是近年来,中美两国在人工智能技术领域的贸易关系则存在摩擦。2018年11月19日美国商务部工业安全署(BIS)出台了一份针对关键新兴技术和相关产品的出口管制框架,其中在人工智能领域包括神经网络和深度学习、进化和遗传计算、强化学习、计算机视觉、专家系统、语音和音频处理、自然语言处理、规划、AI芯片组、AI云技术、音频和视频操作技术共计11项技术。
2019年10月7日,美国BIS部门把8家计算机视觉领域的中国科技企业加入“实体清单”。清单中的实体须在有许可证的情况下才可购买美国技术与产品,但美政府有权拒绝许可申请。
在字节跳动TikTok公司出售在美业务的谈判过程中,2020年8月28日,》中国商务部、科技部调整发布了最新版的《中国禁止出口限制出口技术目录》(商务部科技部公告2020年第38号)。在最新目录中,语音合成、人工智能交互界面、语音评测、基于数据分析的个性化信息推送服务、无人机、量子密码等技术均被列入“限制出口”名单。
根据《中华人民共和国技术进出口管理条例》,凡是涉及向境外转移技术,无论是采用贸易还是投资或是其他方式,均要严格遵守《中华人民共和国技术进出口管理条例》的规定,其中限制类技术出口必须到省级商务主管部门申请技术出口许可,获得批准后方可对外进行实质性谈判,签订技术出口合同。
在大型跨国公司的收购过程中,相关国家政府批准出售是交易宣告成功的必要条件。对于字节跳动出售TikTok业务来说,有可能出现其中一个国家政府出面阻止交易的情况。
根据人工智能技术关键词获取中美两国的论文数据,生成中国和美国在不同领域的研究成果对比图,如下图所示。分析发现,在被限制出口的计算及服务业技术中,中国在以人脸识别为代表的计算机视觉、语音识别与自然语言处理(特别是中文)上有着较美国领先的优势,主要体现在高水平论文发表量、专利申请量两方面。
▲中国和美国2011-2020年在三个AI子领域的高水平论文量和专利申请量对比图
在语音识别、图像识别、自然语言处理技术上,中国国内市场提供了稳定庞大的用户与数据供应,以及政策支持为产业发展带来的所需资源和资本聚集,这些本土化优势,对于外国企业来说是不可复制的。
中国目前在计算机视觉领域的领先企业以SenseTime,Face++,YITU和海康威视为代表,技术优势主要体现在人脸识别,在2017年中国在这一领域获得的专利数量大约是美国公司的6倍,其应用场景多为安全监控系统。相比而言,由于隐私政策,欧美的人脸识别技术难以发展实行,例如2020年8月12日英国法院裁决警察部门使用自动面部识别(AFR)违反了数据保护和平等法以及隐私权。
在语音识别领域,中国企业表现较优秀,特别是在中文识别和处理上。科大讯飞iFlytek、依图科技YITU、百度、腾讯、阿里巴巴等企业依靠中国庞大的中文用户,能获得远超美国能获得的中文语音数据库,这使得其语音识别AI有更好的语音识别学习条件。例如,腾讯可从其月活超10亿的微信用户那里获得中文语音数据。这一点是中国企业在中文语音识别技术上不可复制的优势。
在自然语言处理领域,百度的能力被认为超过微软和谷歌。受Google的BERT启发,百度的自然语言处理模型ERNIE最初是为理解汉语而开发的,但是它也能够更好地理解英语。
Google的模型在学习时会在每个序列中隐藏15%的单词,然后尝试根据上下文进行预测。基于类似的方法,百度团队通过让其AI模型预测文章中一串被隐藏的汉字,来学习文字组合的联系。不同于被微软和谷歌使用的英文,中文的特性要求ERNIE模型必须能够理解汉字组合后的出现的内在含义。结果显示,其在GLUE得分为第一名90.1,超过微软和谷歌的模型得分。
▲中国和美国2011-2020年在三个AI子领域专利公开趋势
研究发现,中国在人工智能和机器学习技术领域发展迅速,相关领域中在国学者的论文发表量在2008年前后已经赶超美国。
值得注意的是,中国杰出学者的国际合作对象国家不均衡,呈现出美国“一家独大”局面。以合发论文为产出指标看中国杰出学者开展国际合作的情况,中国杰出学者与美国合作紧密度最高,人数占比约62.3%,其次是英国(14.7%)、德国(13.7%)、澳大利亚(9.5%)和新加坡(9.2%)。随着贸易战的不断升级蔓延,中美关系日益复杂,正常的科技与学术交流受阻,容易对我国的相关技术领域发展与人才培养造成不利影响。
在严峻的国际大环境下,未来人工智能技术自由交流发展将无疑受到影响。考虑到数据安全等多种因素,未来的基于数据分析的个性化信息推送服务技术,对外技术支持与技术服务出口都将受到限制。
智东西认为,每一次的经济大发展都与科技的突破紧密相关,近些年世界经济很大程度上都是由信息产业的发展带动起来。现在,人工智能技术的逐渐成熟,下游应用不断拓展等种种迹象表明科技正迎来新的爆发期,全球科技竞赛也将再次掀起高潮。中国想要在这轮科技革新中占得先机,就需要加强技术预判,找准方向,提早部署,特别是在一些基础性、突破性的领域精准布局。
原标题:《清华大学:人工智能十年发展总结,中国进步神速,专利占全球七成【附下载】|智东西内参》
阅读原文
新一代人工智能的发展与展望
随着大数据、云计算等技术的飞速发展,人们生产生活的数据基础和信息环境得到了大幅提升,人工智能(AI)正在从专用智能迈向通用智能,进入了全新的发展阶段。国务院印发的《新一代人工智能发展规划》指出新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。在4月10日“吴文俊人工智能科学技术奖”十周年颁奖盛典中,作为我国不确定性人工智能领域的主要开拓者、中国人工智能学会名誉理事长李德毅院士荣获“吴文俊人工智能最高成就奖”,并在大会上作题为《探索什么叫新一代人工智能》的报告,探讨了新一代人工智能的内涵和路径,引领着新一代人工智能的发展与展望。
人工智能这一概念诞生于1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”,随后在20世纪50年代末和80年代初先后两次步入发展高峰,但因为技术瓶颈、应用成本等局限性而均掉入低谷。在信息技术的引领下,数据信息快速积累,运算能力大幅提升,人工智能发展环境发生了巨大变化,跨媒体智能、群体智能成为新的发展方向,以2006年深度学习模型的提出为标志,人工智能第三次站在了科技发展的浪潮之巅。
当前,随着移动互联网、物联网、大数据、云计算和人工智能等新一代信息技术的加速迭代演进,人类社会与物理世界的二元结构正在进阶到人类社会、信息空间和物理世界的三元结构,人与人、机器与机器、人与机器的交流互动愈加频繁。在多源数据、多元应用和超算能力、算法模型的共同驱动下,传统以计算机智能为基础的、依赖于算力算法和数据的人工智能,强调通用学习和大规模训练集的机器学习,正逐渐朝着以开放性智能为基础、依赖于交互学习和记忆、基于推理和知识驱动的以混合认知模型为中心的新一代人工智能方向迈进。应该说,新一代人工智能的内核是“会学习”,相较于当下只是代码的重复简单执行,新一代人工智能则需要能够在学习过程中解决新的问题。其中,学习的条件是认知,学习的客体是知识,学习的形态是交互,学习的核心是理解,学习的结果是记忆……因此,学习是新一代人工智能解释解决现实问题的基础,记忆智能是新一代人工智能中多领域、多情景可计算智能的边界和约束。进而当人类进入和智能机器互动的时代,新一代人工智能需要与时俱进地持续学习,不断检视解决新的问题,帮助人机加深、加快从对态势的全息感知递进到对世界的多维认知。
事实上,基于数据驱动型的传统人工智能,大多建立在“数据中立、算法公正和程序正义”三要素基础之上,而新一代人工智能更关注于交互能力,旨在通过设计“记忆”模块来模仿人脑,解决更灵活多变的实际问题,真正成为“不断学习、与时俱进”的人工智能。特别是人机交互支撑实现人机交叉融合与协同互动,目前已在多个领域取得了卓越成果,形成了多方面、多种类、多层次的应用。例如,在线客服可以实现全天候不间断服务,轻松解决用户咨询等问题,也可将棘手问题转交人工客服处理,降低了企业的管理成本;在智慧医疗领域,人工智能可以通过神经影像实现辅助智能诊断,帮助医生阅片,目前准确率已达95%以上,节省了大量的人力;2020年,在抗击疫情的过程中,新一代人工智能技术加速与交通、医疗、教育、应急等事务协作联动,在科技战“疫”中大显身手,助力疫情防控取得显著成效。
未来已来,随着人工智能逐渐融入居民生活的方方面面,将继续在智慧医疗、自动驾驶、工业制造智能化等领域崭露头角。一是基于新一代人工智能的智慧医疗,将助力医院更好记录、存储和分析患者的健康信息,提供更加精准化和个性化的健康服务,显著提升医院的临床诊断精确度。二是通过将新一代人工智能运用于自动驾驶系统的感知、预测和决策等方面,重点解决车道协同、多车调度、传感器定位等问题,重新定义城市生活中人们的出行方式。三是由于我国工业向大型化、高速化、精细化、自主化发展,对高端大规模可编程自动化系统提出迫切需求,新一代人工智能将推动基于工业4.0发展纲领,以高度自动化的智能感知为核心,主动排除生产障碍,发展具备有适应性、资源效率、人机协同工程的智能工厂应运而生。总之,如何展望人工智能通过交互学习和记忆理解实现自编程和自成长,提升自主学习和人机交互的效率,将是未来研究着力发展的硬核领域,并加速新一代信息技术与智能制造深度融合,推动数字化转型走深走实,有信心、有能力去迎接下一场深刻产业变革的到来。
新一代人工智能的发展与展望
随着大数据、云计算等技术的飞速发展,人们生产生活的数据基础和信息环境得到了大幅提升,人工智能(AI)正在从专用智能迈向通用智能,进入了全新的发展阶段。国务院印发的《新一代人工智能发展规划》指出新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。在4月10日“吴文俊人工智能科学技术奖”十周年颁奖盛典中,作为我国不确定性人工智能领域的主要开拓者、中国人工智能学会名誉理事长李德毅院士荣获“吴文俊人工智能最高成就奖”,并在大会上作题为《探索什么叫新一代人工智能》的报告,探讨了新一代人工智能的内涵和路径,引领着新一代人工智能的发展与展望。
人工智能这一概念诞生于1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”,随后在20世纪50年代末和80年代初先后两次步入发展高峰,但因为技术瓶颈、应用成本等局限性而均掉入低谷。在信息技术的引领下,数据信息快速积累,运算能力大幅提升,人工智能发展环境发生了巨大变化,跨媒体智能、群体智能成为新的发展方向,以2006年深度学习模型的提出为标志,人工智能第三次站在了科技发展的浪潮之巅。
当前,随着移动互联网、物联网、大数据、云计算和人工智能等新一代信息技术的加速迭代演进,人类社会与物理世界的二元结构正在进阶到人类社会、信息空间和物理世界的三元结构,人与人、机器与机器、人与机器的交流互动愈加频繁。在多源数据、多元应用和超算能力、算法模型的共同驱动下,传统以计算机智能为基础的、依赖于算力算法和数据的人工智能,强调通用学习和大规模训练集的机器学习,正逐渐朝着以开放性智能为基础、依赖于交互学习和记忆、基于推理和知识驱动的以混合认知模型为中心的新一代人工智能方向迈进。应该说,新一代人工智能的内核是“会学习”,相较于当下只是代码的重复简单执行,新一代人工智能则需要能够在学习过程中解决新的问题。其中,学习的条件是认知,学习的客体是知识,学习的形态是交互,学习的核心是理解,学习的结果是记忆……因此,学习是新一代人工智能解释解决现实问题的基础,记忆智能是新一代人工智能中多领域、多情景可计算智能的边界和约束。进而当人类进入和智能机器互动的时代,新一代人工智能需要与时俱进地持续学习,不断检视解决新的问题,帮助人机加深、加快从对态势的全息感知递进到对世界的多维认知。
事实上,基于数据驱动型的传统人工智能,大多建立在“数据中立、算法公正和程序正义”三要素基础之上,而新一代人工智能更关注于交互能力,旨在通过设计“记忆”模块来模仿人脑,解决更灵活多变的实际问题,真正成为“不断学习、与时俱进”的人工智能。特别是人机交互支撑实现人机交叉融合与协同互动,目前已在多个领域取得了卓越成果,形成了多方面、多种类、多层次的应用。例如,在线客服可以实现全天候不间断服务,轻松解决用户咨询等问题,也可将棘手问题转交人工客服处理,降低了企业的管理成本;在智慧医疗领域,人工智能可以通过神经影像实现辅助智能诊断,帮助医生阅片,目前准确率已达95%以上,节省了大量的人力;2020年,在抗击疫情的过程中,新一代人工智能技术加速与交通、医疗、教育、应急等事务协作联动,在科技战“疫”中大显身手,助力疫情防控取得显著成效。
未来已来,随着人工智能逐渐融入居民生活的方方面面,将继续在智慧医疗、自动驾驶、工业制造智能化等领域崭露头角。一是基于新一代人工智能的智慧医疗,将助力医院更好记录、存储和分析患者的健康信息,提供更加精准化和个性化的健康服务,显著提升医院的临床诊断精确度。二是通过将新一代人工智能运用于自动驾驶系统的感知、预测和决策等方面,重点解决车道协同、多车调度、传感器定位等问题,重新定义城市生活中人们的出行方式。三是由于我国工业向大型化、高速化、精细化、自主化发展,对高端大规模可编程自动化系统提出迫切需求,新一代人工智能将推动基于工业4.0发展纲领,以高度自动化的智能感知为核心,主动排除生产障碍,发展具备有适应性、资源效率、人机协同工程的智能工厂应运而生。总之,如何展望人工智能通过交互学习和记忆理解实现自编程和自成长,提升自主学习和人机交互的效率,将是未来研究着力发展的硬核领域,并加速新一代信息技术与智能制造深度融合,推动数字化转型走深走实,有信心、有能力去迎接下一场深刻产业变革的到来。
作者:徐云峰
catalogs:13000076;contentid:7688970;publishdate:2021-06-11;author:黄童欣;file:1623414511328-aff718d9-3742-46b0-b08c-e56bdd1ed8c8;source:29;from:中华读书报;timestamp:2021-06-1120:28:23;[责任编辑:]人工智能的三次浪潮与三种模式
■史爱武
谈到人工智能,人工智能的定义到底是什么?
达特茅斯会议上对人工智能的定义是:使一部机器的反应方式就像是一个人在行动时所依据的智能。
百度百科上对人工智能的定义是:它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
尽管人工智能现在还没有非常严格准确或者所有人都接受的定义,但是有一些约定俗成的说法。通常人工智能是指机器智能,让机器达到人智能所实现的一些功能。人工智能既然是机器智能,就不是机械智能,那么这个机器是指什么呢?是指计算机,用计算机仿真出来的人的智能行为就可以叫作人工智能。
2017年7月,国务院印发了《新一代人工智能发展规划》。2017年12月,人工智能入选“2017年度中国媒体十大流行语”。这一国家级战略和社会流行趋势标志着,人工智能发展进入了新阶段,我国要抢抓人工智能发展的重大战略机遇,构筑人工智能发展的先发优势,加快建设创新型国家和世界科技强国。
人工智能的三次浪潮
自1956年开始,人工智能经历了三起三落,出现了几次浪潮,现在人工智能已经是处于第三次浪潮了。
第一次浪潮(1956-1976年,20年),最核心的是逻辑主义
逻辑主义主要是用机器证明的办法去证明和推理一些知识,比如用机器证明一个数学定理。要想证明这些问题,需要把原来的条件和定义从形式化变成逻辑表达,然后用逻辑的方法去证明最后的结论是对的还是错的,也叫做逻辑证明。
早期的计算机人工智能实际上都是沿着这条路在走。当时很多专家系统,比如医学专家系统,用语言文字输入一些症状,在机器里面变换成逻辑表达,用符号演算的办法推理出大概得了什么病。所以当时的主要研究都集中在逻辑抽象、逻辑运算和逻辑表达等方面。
在第一次浪潮中,数学定理证明实际上是实现效果最好的,当时有很多数学家用定理思路证明了数学定理。为了更好地完成定理证明工作,当时出了很多和逻辑证明相关的逻辑程序语言,比如很有名的Prolog。
虽然当时的成果已经能够解开拼图或实现简单的游戏,却几乎无法解决任何实用的问题。
第二次浪潮(1976—2006年,30年),联结主义盛行
在第一次浪潮期间,逻辑主义和以人工神经网络为代表的联结主义相比,逻辑主义是完全占上风的,联结主义那时候不太吃香。然而逻辑主义最后无法解决实用的问题,达不到人们对它的期望,引起了大家的反思,这时候人工神经网络(也就是联结主义)就慢慢占了上风。
在70年代末,整个神经元联结网络、模型都有突飞猛进的进步,最重要的是BP前馈神经网络。1986年BP前馈神经网络刚出来的时候解决了不少问题,后来大家往更大的领域应用,实现了比较大的成果。在很多模式识别的领域、手写文字的识别、字符识别、简单的人脸识别也开始用起来,这个领域一下子就热起来,一时之间,人们感觉人工智能大有可为。随后十几年人们发现神经网络可以解决一些单一问题,解决复杂问题却有些力不从心。训练学习的时候,数据量太大,有很多结果到一定程度就不再往上升了。
这时期所进行的研究,是以灌输“专家知识”作为规则,来协助解决特定问题的“专家系统”为主。虽然有一些实际的商业应用案例,应用范畴却很有限,第二次热潮也就慢慢趋于消退。
第三次浪潮(2006—现在),基于互联网大数据的深度学习的突破
如果按照技术分类来讲,第二次和第三次浪潮都是神经网络技术的发展,不同的是,第三次浪潮是多层神经网络的成功,也就是深度学习取得突破。这里既有硬件的进步,也有卷积神经网络模型与参数训练技巧的进步。
若观察脑的内部,会发现有大量称为“神经元”的神经细胞彼此相连。一个神经元从其他神经元那里接收的电气信号量达某一定值以上,就会兴奋(神经冲动);在某一定值以下,就不会兴奋。兴奋起来的神经元,会将电气信号传送给下一个相连的神经元。下一个神经元同样会因此兴奋或不兴奋。简单来说,彼此相连的神经元,会形成联合传递行为。我们透过将这种相连的结构来数学模型化,便形成了人工神经网络。
经模型化的人工神经网络,是由“输入层”“隐藏层”及“输出层”等三层构成。深度学习往往意味着有多个隐藏层,也就是多层神经网络。另外,学习数据则是由输入数据以及相对应的正确解答来组成。
为了让输出层的值跟各个输入数据所对应的正解数据相等,会对各个神经元的输入计算出适当的“权重”值。通过神经网络,深度学习便成为了“只要将数据输入神经网络,它就能自行抽出特征”的人工智能。
伴随着高性能计算机、云计算、大数据、传感器的普及,以及计算成本的下降,“深度学习”随之兴起。它通过模仿人脑的“神经网络”来学习大量数据的方法,使它可以像人类一样辨识声音及影像,或是针对问题做出合适的判断。在第三次浪潮中,人工智能技术及应用有了很大的提高,深度学习算法的突破居功至伟。
深度学习最擅长的是能辨识图像数据或波形数据这类无法符号化的数据。自2010年以来,Apple、Microsoft及Google等国际知名IT企业,都投入大量人力物力财力开展深度学习的研究。例如AppleSiri的语音识别,Microsoft搜索引擎Bing的影像搜寻等等,而Google的深度学习项目也已超过1500项。
深度学习如此快速的成长和应用,也要归功于硬件设备的提升。图形处理器(GPU)大厂英伟达(NVIDIA)利用该公司的图形适配器、连接库(Library)和框架(Frame⁃work)产品来提升深度学习的性能,并积极开设研讨课程。另外,Google也公开了框架TensorFlow,可以将深度学习应用于大数据分析。
人工智能的3种模式
人工智能的概念很宽泛,根据人工智能的实力可以分成3大类,也称为3种模式。
(1)弱人工智能:擅长于单个方面的人工智能,也叫专业人工智能。比如战胜世界围棋冠军的人工智能AlphaGo,它只会下围棋,如果让它下国际象棋或分辨一下人脸,它可能就会犯迷糊,就不知道怎么做了。当前我们实现的几乎全是弱人工智能。
(2)强人工智能:是指在各方面都能和人类比肩的人工智能,这是类似人类级别的人工智能,也叫通用人工智能。人类能干的脑力活,它都能干,创造强人工智能比创造弱人工智能难得多,目前我们还做不到。
(3)超人工智能:知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。超人工智能可以是各方面都比人类强点,也可以是各方面都比人类强很多倍。超人工智能现在还不存在,很多人也希望它永远不要存在。否则,可能像好莱坞大片里面的超级智能机器一样,对人类也会带来一些威胁或者颠覆。
我们现在处于一个充满弱人工智能的世界。比如,垃圾邮件分类系统是个帮助我们筛选垃圾邮件的弱人工智能;Google翻译是可以帮助我们翻译英文的弱人工智能等等。这些弱人工智能算法不断地加强创新,每一个弱人工智能的创新,都是迈向强人工智能和超人工智能的进步。正如人工智能科学家AaronSaenz所说,现在的弱人工智能就像地球早期软泥中的氨基酸,可能突然之间就形成了生命。如世界发展的规律看来,超人工智能也是未来可期的!
人工智能的主要发展及其驱动力
今天的演讲是贾阳清为阿里巴巴CIO学院举办的有关人工智能(AI)技术的特殊培训课程准备的。在现场直播中,贾阳清讨论了AI涉及的工程和产品实践。首先,他介绍了AI及其应用。然后,参与者讨论了AI系统中的重要问题,包括推动算法创新的计算能力的突破以及云平台可提供的价值。最后,贾先生分析了大数据与AI之间的关系,讨论了企业应如何接受AI,并提出了公司智能化战略的重点。
[[333533]]
5商业价值和人工智能原理|数据驱动的投资者
难以获得商业价值。我的意思是非常辛苦…就高级分析而言,该过程甚至…
[[333534]]
演算法
人工智能已经成为一种重要的技术趋势。现在各行各业都在拥抱AI,并且与AI的联系更加紧密。下图列出了AI发挥重要作用的领域,不仅包括与AI密切相关的领域,还包括由AI间接赋予的那些领域。
在我们超越自己之前,我们需要了解AI,其应用程序和系统背后的思想。
随着AI在过去80年来的发展,我们已经从图灵测试到全民面对变革取得了成就。机器像人类一样使用AI来回答问题并创建或执行计算和分析任务。在某些领域,计算机已经实现了人类的能力。例如,2019年发布的人脸变化应用程序基于AI领域中深度学习和神经网络的广泛应用。
当前,在我们的日常工作和生活中使用了许多AI应用程序来代替人工工作。例如,埃隆·马斯克(ElonMusk)的AI项目能够模拟人脑的操作。但是,随着AI的飞速发展,也出现了一些我想称之为"假AI"的例子。
在AI的开发过程中,我们不得不面对几个虚假的AI项目,例如,一个严重的虚假AI项目,欺骗了2亿元人民币(超过2800万美元)的投资者。因此,我们需要更好地了解什么是AI以及如何使用AI。
在学术界,人工智能的定义有些不同。人工智能是对人类智能的模拟,能够接收和分类信息,合理地执行一系列任务并基于此做出决策。
它的主要特征之一是采取理性行动的能力。
AI过程从感知到决策反馈。决定AI系统是否可以采取适当行动的关键因素是它们如何感知有关外部世界的信息。由于AI试图模拟人的大脑,因此感知过程实际上是理解和学习的过程。这是深度学习试图通过AI解决的问题。
[[333535]]
深度学习
只有当外部信息(例如视频,文本或语音命令)转换为机器语言时,AI才能接受和响应。从AI的早期开始,科学家就开始考虑和研究此问题。
随后,人们开始讨论和研究如何通过视觉感知来输入信息。2012年,加拿大多伦多大学ImageNet竞赛的获胜者GeoffreyHinton和他的学生AlexKrizhevsky设计了一个解决方案。那年之后,提出了更深的神经网络,例如著名的VGG和GoogLeNet。这些神经网络为传统的机器学习分类算法提供了出色的性能。
AlexNet深度学习的发展历史
简而言之,AlexNet的目的是从大量对象中准确识别命令中所需的对象。该模型的应用加速了图像识别领域的发展,目前已被广泛使用。
像我们的人脑一样,神经网络使用多层次的学习模型,并且随着它们的不断学习而变得越来越复杂。假设您想从数百万个图像中找到标记为"猫"的图像,并在一个非常大的数据集上训练一个经过编辑的视觉网络模型。然后,通过模型迭代实施更复杂的训练。
目前,常用的RestNet模型的深度超过一百层,并结合了一些最新的科学研究发现,例如下图底部所示的快速桥连接。这使用户可以快速有效地训练深度网络。最终,这解决了视觉感知的问题。
阿里云:智能航空围裙管理
该解决方案使用AI来识别飞机类型,登机门和机场车辆,并将它们反映在实际地图上。它还允许用户在飞行过程中看到飞机的轨迹。该信息可以用作AI管理的输入信息,从而使机场的运营更加方便和有效。
如前所述,深度学习是一种重要的感知模式和方法。深度学习算法主要包括:
资料标记算法模型开发高性能的分布式培训模型优化模型部署感知之后,AI系统需要做出决策。深度学习是一种黑盒操作,可以学习和感知外部信息,但不能提供任何解释感知问题原因的反馈。因此,分析和反馈需要决策能力。
传统机器学习的示例主要包括决策树算法和逻辑回归。例如,银行发放贷款的过程是一个决策过程,在平衡各种因素后输出决策。我们可以使用决策树输出"是"或"否"的判断,以确定是否授予贷款。Logistic回归是指两种数据之间的相关性。这是一种输出精确解的数学方法。
实际上,深度学习和机器学习是互补的。深度学习可以解决感知问题,例如计算机视觉和语音识别。它使用神经网络体系结构解决了许多感知问题,但无法解释感知问题。传统的机器学习不提供这种用户友好的感知功能。但是,它的模型相对较小,可以直接解释,这在财务和风险控制方案中是必需的。
人工智能早已应用于广告领域。淘宝是最常见的广告场景之一。卖方首先根据消费者的个人浏览信息调查用户的偏好,然后通过智能推荐系统推送与消费者搜索相关的产品。这种智能算法的广泛应用使用户信息挖掘更加高效和精确。
感知和决策都取决于算法。
感知:感知过程与深度学习算法有关,涉及数据标记,算法模型开发,高性能分布式训练,性能优化和模型部署。决策:决策过程与传统的机器学习算法和深度学习算法有关。它涉及行业行为数据的收集,结构化和非结构化数据处理,数据和算法的组合建模,算法开发培训和调整,模型部署以及实时培训反馈。人工智能系统
随着算法的快速发展,相应的基础架构支持变得越来越重要。这需要AI系统的支持。构建AI或机器学习系统的两个基本因素是算法和计算能力。算法创新是由计算能力的突破驱动的。
下图显示了到2019年AI所需的计算能力。与AlphaGoZero所需的计算能力相比,AlexNet对计算能力的需求增加了300,000倍。在这种情况下,算法迭代和算法实现的解决方案对系统提出了更高的要求。
下图显示了AlexNet在2013年的系统。只需在机器上添加GPU,培训费用约为每天500瓦,共7天。这意味着业务模型的迭代周期约为一周。
在当今企业需要快速开发广告推荐和其他模型的时代,一个星期的模型迭代周期太长了。因此,越来越多的人对使用大型集群或芯片为AI系统提供更高的计算能力感兴趣。根据麻省理工学院在2014年进行的比较,一个人在一分钟内可以处理约77张图像,而单个GPU可以在同一时期内处理230张图像。尽管单个GPU的处理速度不会比人类的处理速度快多少,但我们可以通过GPU集群来实现更大规模,更快的计算。如下图所示,512个GPU群集在一分钟内可以处理600,00张图像。
在设计AI系统时,您需要专注于如何实现高性能存储,实现机器之间的快速通信以及维护分布式集群的稳定性。目前,阿里云拥有一个内部Eflops平台,该平台可在三分钟内实现10´1的计算,每分钟消耗128KW的电量。这样的系统在2015年之前是不可想象的。我们实现这种功能的能力主要是由于大规模集群和系统底层芯片的可扩展性。
目前,世界上许多企业,特别是中国的企业正在研究和开发高性能芯片,阿里巴巴也不例外。2019年,阿里巴巴发布了全球性能最高的AI推理芯片,汉光800。该芯片在实际的城市大脑和航空大脑场景中进行了测试,达到了每秒近80万张图像的峰值性能。这表示性能比上一代提高了约4000%。
通过增加软件和硬件的复杂度,资源管理,有效的调度和系统范围的优化,增加系统复杂度会带来一系列问题。这是系统开发过程中所有各方都必须面对的挑战。
您必须注意,AI集群不是通用集群。在AI训练期间,子任务需要定期同步,并且不同机器之间需要高性能的通信。在大多数情况下,使用基于GPU或NPU的专用组件。当前,不同的计算模型和交互模式对AI培训构成了重大挑战。
人工智能用于各种阿里巴巴业务场景。因此,我们可以使用实际的AI应用程序来优化平台设计。例如,淘宝移动的Pailitao(Snap-and-search)分类模型具有数百万个类别,淘宝的Voice+NLP解决方案以及Alimama的广告推荐系统。
经过优化的ApsaraAI平台分为三层,分别是底层的基础架构,中间的培训和推理框架以及顶层的开发平台。AI平台有三种重要类型:
轻量级AI开发平台:这些平台可帮助算法和数据科学家执行一键式开发,调试和部署。人工智能和大数据协作开发平台:这些平台可帮助用户快速开发面向大数据的业务系统。AI推理服务平台:这些平台解决了计算资源问题,并提供了推理所需的模型训练,部署和性能监控。这三种类型的平台支持算法API的输出以及垂直域平台和大脑解决方案的开发。
在深度学习领域,斯坦福大学推出了一个称为DAWNBench的基准。与以前的优秀性能相比,阿里云的机器学习解决方案将性能提高了约10%。
如今,人工智能技术功能在提高资产利用率和满足不同场景的需求方面发挥着重要作用。全面的AI技术能力主要取决于以下基础架构和服务:
基本硬件:提供一般的计算能力和AI计算能力。它还通过基础架构即服务(IaaS)提供云功能。AI云服务:此基础平台即服务(PaaS)层通过易于访问的软件和硬件环境提供了适合绝大多数用户的计算能力。高性能计算:这将加速核心AI计算引擎。AI系统框架:这提供了AI计算模型和跨体系结构建模,迭代和部署的完整抽象。AI托管平台:这提高了算法研发的共享部署和输出效率。它还提供了具有较高用户粘性的开发平台。
智能计算与数据计算
人工智能用于智能计算,大数据用于数据计算。两种功能相互补充。
人工智能的数据支持
前面提到的算法和计算能力需要大数据量的支持。数据是算法和计算能力价值的重要体现。
以下两张图片分别显示了2005年和2013年的教皇观众。随着移动互联网的发展,数据呈指数级增长,大量可用数据改善了深度学习的性能。
1998年,小型MNIST系统的训练数据仅为10MB,2009年ImageNet的训练数据为200GB,2017年WebVision具有3TB数据集,典型产品的视觉系统需要1PB数据。大量的数据已帮助阿里巴巴几乎线性地提高了其性能。
让我们看一个我们都熟悉的常见场景,以说明更大的数据量如何提高性能。在X射线医学诊断领域,研究表明,医生从X射线图像诊断疾病的能力与他们所查看的X射线图像的数量直接相关。他们检查的图像越多,诊断准确性就越高。类似地,可以通过大型计算机系统在更多数据上训练当前的医疗引擎系统,以实现更准确的医疗诊断。
AI使大数据更智能
下图显示了大数据领域的趋势。当前,大数据领域希望提取更多信息,实现实时计算,AI平台并执行在线预测。所有这些趋势表明,大数据的智能不断提高。
当前,从多个数据源获取不同类型的数据,包括结构化,半结构化和非结构化数据,并将其存储在数据仓库中。为了利用这些数据的潜在价值,需要智能计算。在广告推荐的情况下,数据源是用户在淘宝上的点击,浏览和购买。数据通过脱机或实时同步以及脱机或实时提取-转换-加载(ETL)写入数据仓库。然后,基于数据仓库或数据湖解决方案生成并训练各种数据模型。最后,训练结果通过数据服务输出。如您所见,数据理解和使用过程变得越来越智能。
几年前,混合事务/分析处理(HTAP)包括OLTP和OLAP。OLAP可以进一步分为大数据,离线和实时分析。不同的引擎适用于具有不同数据量的案例。当前,数据服务变得越来越重要。在某些智能客户服务场景中,实时AI推理服务和应用程序需要数据提取模型。因此,找到一种将分析与服务结合起来的方法至关重要。这就是为什么我们目前正在追求混合服务和分析处理(HSAP)的原因。结合AI,我们可以通过离线和实时数据仓库从数据中提取见解,并通过在线服务将此类见解呈现给用户。
阿里巴巴已经在自己的应用程序中开发了基于人工智能的大数据方法和解决方案。Double11ShoppingFestival中的离线计算(批处理),实时计算(流计算),交互式分析和图形计算方案已与ApsaraAI平台相结合,提供了由Apsara支持的新一代Apsara大数据产品AI。
与人工智能类似,大数据也注重性能。根据TPC基准测试,2019年,阿里云的大数据平台MaxCompute和E-MapReduce在计算性能和成本效益方面显示出显着优势。下图显示了基准测试结果。
阿里巴巴的AlimeBot目前通过应用基于AI的深度学习和智能感知技术,在用户服务场景中为用户提供智能语音交互服务。为了实现智能性能,它必须与大数据业务系统紧密联系,例如物流或用户数据系统。
这使我们想到了下一个问题:企业应如何接受AI?简而言之,要使AI成为现实,我们应该从应用程序需求出发,逐步进行技术创新,就像爱迪生如何改进电灯泡一样。云提供了低成本,高性能和高稳定性的基础架构,但是对我们而言,关键是明确定义我们的需求。
在过去的几年中,AI领域一直致力于算法创新和演示,但这还远远不够。
AI算法只是系统的一部分。在实施AI时,企业还必须考虑如何收集数据,获得有用的功能以及执行验证,流程管理和资源管理。
人工智能不是万能的,但也不能忽略。当企业采用AI时,必须首先从业务考虑出发。随着数据量和算法数量的增加,建立一支了解业务的数据工程师和算法工程师团队至关重要。这是智能企业成功的关键。我们已经提到的所有算法,计算能力和数据解决方案都可以通过使用云中当前可用的服务和解决方案来实现。这可以帮助企业更快地实施AI。