《中国人工智能发展报告2023》(附下载)
4月11日-12日,2020中国人工智能产业年会在苏州举行。会上发布《中国人工智能发展报告2020》。报告显示,过去十年全球人工智能专利申请量为521264件,呈逐年上升趋势。其中中国人工智能专利申请量为389571件,位居世界第一,占全球总量的74.7%,是排名第二美国申请量的8.2倍。报告认为,过去十年,自然语言处理、机器学习、信息检索与推荐、计算机视觉等是最具影响力的AI技术,走向下一个十年,人工智能将在强化学习、知识图谱、智能机器人等方向重点发展。
下载请关注并回复:
中国人工智能发展报告2020
原标题:《《中国人工智能发展报告2020》(附下载)》
阅读原文
年度重磅发布:《人工智能发展报告2023》
过去十年里,人工智能从实验室走向产业化生产,重塑传统行业模式、引领未来的价值已经凸显,并为全球经济和社会活动做出了不容忽视的贡献。当前全球人工智能浪潮汹涌,各国学者正努力实现人工智能从感知到认知的跨越,使之具有推理、可解释性、认知性。未来十年,人工智能技术将实现从感知智能到认知智能的新突破。
近日,清华大学人工智能研究院、清华-中国工程院知识智能联合研究中心联合发布了《人工智能发展报告2020》。
该报告基于清华大学唐杰教授团队自主研发的“科技情报大数据挖掘与服务平台”(简称AMiner)平台,根据2011-2020年期间人工智能领域的顶级期刊和会议(共计44个)所收录的全部论文和专利数据,全面展现了人工智能发展至今所获得的重大科研进展、成果产出以及科研热点。该报告不仅从人才现状、技术趋势和技术影响力等方面展示了过去十年人工智能的最新进展,而且汇总分析了全球主要国家人工智能战略支持政策,以及各国人才储备和专利申请情况。该报告匠心独具,将知识图谱与自然语言处理、可视化、文献计量学等技术手段相结合,分析得到人工智能及其子领域的技术研究热点和发展趋势方向,高层次人才特征。此外,基于Gartner技术成熟度曲线,该报告还深入探讨了人工智能的未来发展蓝图,提出理论、技术和应用方面的重大变化与挑战,以及如何赋能其他产业发展等重要议题。
AMiner评选出过去十年十大人工智能研究热点
根据人工智能领域在国际顶级期刊和会议过去10年所发表论文,通过AI算法计算出不同技术研究方向的AMiner影响力指数,以此获得人工智能领域研究热点总榜单,评选出过去十年“十大人工智能研究热点”。
本次评测结果显示,过去十年中十大研究热点分别为:深度神经网络、特征抽取、图像分类、目标检测、语义分割、表示学习、生成对抗网络、语义网络、协同过滤和机器翻译。各项研究热点的AMiner指数如表。
表1AMiner评选出的近十年十大AI研究热点
过去十年有5位人工智能领域学者获得图灵奖
通过AMiner智能引擎,可以自动收集历年来图灵奖获得者及其论文发表与学者画像等信息。过去十年的图灵奖有三次正式授予给人工智能领域。2010,LeslieValiant因对计算理论的贡献(PAC、枚举复杂性、代数计算和并行分布式计算)获得图灵奖,该成果是人工智能领域快速发展的数学基础之一。2011年,因JudeaPearl通过概率和因果推理对人工智能做出贡献而颁奖;2018年,深度学习领域三位大神YoshuaBengio、GeoffreyHinton和YannLeCun因为在概念和工程上的重大突破推动了深度神经网络成为计算机领域关键技术而荣获图灵奖。Hinton的反向传播(BP)算法、LeCun对卷积神经网络(CNN)的推动以及Bengio对循环神经网络(RNN)的贡献是目前图像识别、语音识别、自然语言处理等获得跳跃式发展的基础。
AI高层次人才较多聚集在美国
全球人工智能领域高层次人才共计155408位,中国人工智能领域高层次人才数量共计17368位。从AI高层次学者国家分布看,美国AI高层次学者的数量最多,有1244人次,占比62.2%,中国排在美国之后,位列第二,有196人次,占比9.8%。中国AI高层次学者主要分布在京津冀、长三角和珠三角地区,北京仍是拥有AI高层次学者数量最多的国内城市,有79位。
在全球人工智能领域高层次学者量TOP10机构之中,美国机构高层次学者总体人数遥遥领先。位居首位的是美国的谷歌公司,拥有185人,清华大学是唯一入选TOP10的中国机构,其余均为美国机构。
从子领域论文量来看,美国的大学和科技机构在AI各个细分方向上的发展较为均衡,且在自然语言处理、芯片技术、机器学习、信息检索与挖掘、人机交互等10多个子领域的发展居于全球领先席位。中国的AI机构在语音识别、经典AI、计算机网络、多媒体、可视化和物联网等领域实力较强,均进入全球领先行列。
中国AI专利申请量全球领先
过去十年,中国人工智能领域的专利申请量389571,位居世界第一,占全球总量的74.7%,是排名第二的美国的8.2倍。总体上,国内的人工智能相关专利申请量呈逐年上升趋势,并且在2015年后增长速度明显加快。
中国人工智能专利申请量年度趋势
(专利申请数据截至2020年10月)
人工智能技术赋能社会民生领域发展
当前,人工智能技术与传统行业深度融合,广泛应用于交通、医疗、教育和工业等多个领域,在有效降低劳动成本、优化产品和服务、创造新市场和就业等方面为人类的生产和生活带来革命性的转变。
机器学习、深度学习、自然语言处理、语音识别、计算机视觉、计算机图形、机器人、人机交互、数据库、信息检索与推荐、知识图谱、知识工程、数据挖掘、数据挖掘、安全与隐私、深度神经网络、可视化、物联网等人工智能技术,已经被引入到医疗领域的电子病历、影像诊断、医疗机器人、健康管理、远程诊断、新药研发、基因测序等应用场景中;被引入到金融领域的智能获客、身份识别、智能风控、智能投顾、智能客服、移动支付以及业务流程优化等应用场景;被引入到教育领域的智适应学习、教育机器人、智慧校园、智能课堂、智能题库、语音测评、人机对话、教育辅助等场景,还被引入到制造领域的智能工厂、工程设计、工程工艺设计、生产制造、CIMS、生成调度、故障诊断、智能物流、智能MES生产信息化管理系统等,以及被引入到城市管理领域的智能政务、城市指挥中心、城市公共安全、物流及建筑服务系统、能源系统、交通系统、城市环境管理系统、智能家居、医疗系统自动驾驶等多个应用场景。
人工智能未来将更多向强化学习、神经形态硬件、知识图谱、智能机器人、可解释性AI等方向发展
目前,全球已有美国、中国、欧盟、英国、日本、德国、加拿大等10余个国家和地区纷纷发布了人工智能相关国家发展战略或政策规划,用于支持AI未来发展。这些国家几乎都将人工智能视为引领未来、重塑传统行业结构的前沿性、战略性技术,积极推动人工智能发展及应用,注重人工智能人才队伍培养,这是AI未来发展的重要历史机遇。
本报告通过对2020年人工智能技术成熟度曲线分析,并结合人工智能的发展现状,预测得出人工智能下一个十年重点发展的方向包括:强化学习、神经形态硬件、知识图谱、智能机器人、可解释性AI、数字伦理、知识指导的自然语言处理等。
2023年中国人工智能行业市场现状及发展前景分析 赋能实体经济市场规模将突破2000亿
2030年中国将成为世界主要人工智能创新中心
中国政府将人工智能上升到国家战略层面。2017年7月,国务院印发《新一代人工智能发展规划》,明确指出新一代人工智能发展分三步走的战略目标,到2030年使中国人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。
1、中国人工智能在人才储备方面较弱
1981年9月,来自全国各地的科学技术工作者300余人在长沙出席了中国人工智能学会(CAAI)成立大会,此后中国的人工智能开始正式迈入发展阶段。对比2019年中国与全球人工智能发展情况,在Al相关论文发布数量、企业数量、融资总额、产业规模、专利申请数量等方面中国均居世界头部阵营,具有充分的市机场竞争力。
中国在人才储备相较弱,但已经在全力补足短板。目前全国已经有35所高等院校开设了Al专业,国际交流和国际人才引进也在不断加深,未来5年内将有大量从业者涌入市场。
重应用而不重基础研发也是中国人工智能行业存在的固有问题,研发型企业远少于应用型企业的隐患随着中美专利竞争而浮现,政府开始重视Al基础层创业公司的培养,资本方也更加关注Al芯片、机器学习算法、数据处理等产业链上游企业的发展,科技巨头企业更是提前进行了Al生态布局,建立了产业联盟,在各方的努力中中国Al市场处于从局部向整体发展的上升期,行业前景良好。
2、人工智能赋能实体经济
近几年,人工智能技术在实体经济中寻找落地应用场景成为核心要义,据艾瑞资料库数据显示,2018年中国人工智能赋能实体经济的市场规模达到251亿元,赋能价值有望在2021年突破千亿。人工智能技术与传统行业经营模式及业务流程产生实质性融合,智能经济时代的全新产业版图初步显现。
3、现阶段中国人工智能主要赋能公共安全领域
根据艾瑞的资料库数据显示,2019年AI+安防占人工智能赋能实体经济的50以上,其次是AI+金融和AI+营销,分布占比15.8%和11.6%。前瞻分析一方面是由于安防领域国企数量较大易于前期的政策推动,另一方面是智慧城市对公共安全的需求。前瞻初步估算,民企活力将逐步显现,未来AI+营销和AI+金融的赋能价值将持续提高。
4、互联网公司是最大的AI投入者主要投资在计算机视觉类
根据艾瑞数据分析,2019年中国科技企业技术研发投入约为4005亿元,其中人工智能算法研发投入占比为9.3%,超370亿元,且大部分投入来自互联网科技公司。主要Al算法应用领域——计算机视觉、语音识别/语音合成,以及自然语言处理占比分别为22.5%、2.3%和7.1%,三者中计算机视觉相关算法研发投入占比最大,这与视觉相关创业公司数量、产业需求和政策导向呈正相关联系,计算机视觉目前仍是中国最具代表性的Al应用技术。
以上数据及分析请参考于前瞻产业研究院《中国人工智能行业市场前瞻与投资战略规划分析报告》,同时前瞻产业研究院提供产业大数据、产业规划、产业申报、产业园区规划、产业招商引资等解决方案。
人工智能:2023的十大进展+2023 年十大技术趋势
2020年11月30日,Google旗下DeepMind公司的AlphaFold2人工智能系统在第14届国际蛋白质结构预测竞赛(CASP)中取得桂冠,在评估中的总体中位数得分达到了92.4分,其准确性可以与使用冷冻电子显微镜(CryoEM)、核磁共振或X射线晶体学等实验技术解析的蛋白质3D结构相媲美,有史以来首次把蛋白质结构预测任务做到了基本接近实用的水平。
《自然》杂志评论认为,AlphaFold2算法解决了困扰生物界“50年来的大问题”。
蛋白质折叠
相关链接:https://deepmind.com/blog/article/alphafold-a-solution-to-a-50-year-old-grand-challenge-in-biology
03
分子动力学
进展3:深度势能分子动力学研究获得戈登·贝尔奖
2020年11月19日,在美国亚特兰大举行的国际超级计算大会SC20上,包括智源学者王涵(北京应用物理与计算数学研究院)在内的“深度势能”团队,获得了国际高性能计算应用领域最高奖项“戈登·贝尔奖”。“戈登·贝尔奖”设立于1987年,由美国计算机协会(ACM)颁发,被誉为“计算应用领域的诺贝尔奖”。
该团队研究的“分子动力学”,结合了分子建模、机器学习和高性能计算相关方法,能够将第一性原理精度分子动力学模拟规模扩展到1亿原子,同时计算效率相比此前人类最好水平提升1000倍以上,极大地提升了人类使用计算机模拟客观物理世界的能力。美国计算机协会(ACM)评价道,基于深度学习的分子动力学模拟通过机器学习和大规模并行的方法,将精确的物理建模带入了更大尺度的材料模拟中,将来有望为力学、化学、材料、生物乃至工程领域解决实际问题(如大分子药物开发)发挥更大作用。
论文地址:https://arxiv.org/abs/2005.00223
04
薛定谔方程
进展4:DeepMind等用深度神经网络求解薛定谔方程,促进量子化学发展
作为量子力学的基本方程之一,薛定谔方程提出已经有90多年的时间,但如何精确求解薛定谔方程,却一直困扰着许多科学家。
DeepMind开发的费米神经网络(Fermionicneuralnetworks,简称FermiNet)来近似计算薛定谔方程,为深度学习在量子化学领域的发展奠定了基础,2020年10月,DeepMind开源了FermiNet,相关论文发表在物理学期刊PhysicalReviewResearch上。FermiNet是利用深度学习来从第一性原理计算原子和分子能量的尝试,在精度和准确性上都满足科研标准,且是目前在相关领域中较为精准的神经网络模型。
FermiNet示意图
另外,2020年9月,德国柏林自由大学的几位科学家也提出了一种新的深度学习波函数拟设方法,它可以获得电子薛定谔方程的近乎精确解,相关研究发表在NatureChemistry上。该类研究所展现的,不仅是深度学习在解决某一特定科学问题过程中的应用,也是深度学习能在生物、化学、材料以及医药领域等各领域科研中被广泛应用的一个远大前景。
论文地址:https://deepmind.com/blog/article/FermiNet
05
视皮层打印
进展5:美国贝勒医学院通过动态颅内电刺激实现高效“视皮层打印”
对于全球4000多万盲人来说,重见光明是一个遥不可及的梦想。2020年5月,美国贝勒医学院的研究者利用动态颅内电刺激新技术,用植入的微电极阵列构成视觉假体,在人类初级视皮层绘制W、S和Z等字母的形状,成功地能够让盲人“看见”了这些字母。
结合马斯克创办的脑机接口公司Neuralink发布的高带宽、全植入式脑机接口系统,下一代视觉假体有可能精准刺激大脑初级视觉皮层的每一个神经元,帮助盲人“看见”更复杂的信息,实现他们看清世界的梦想。
论文地址:https://doi.org/10.1016/j.cell.2020.04.033
06
类脑计算完备性
进展6:清华大学首次提出类脑计算完备性概念及计算系统层次结构
2020年10月,包括智源学者张悠慧、李国齐、宋森等在内的清华大学研究团队首次提出“类脑计算完备性”概念以及软硬件去耦合的类脑计算系统层次结构,通过理论论证与原型实验证明该类系统的硬件完备性与编译可行性,扩展了类脑计算系统应用范围使之能支持通用计算。
该研究成果发表在2020年10月14日的《自然》(Nature)期刊。《自然》周刊评论认为,“‘完备性’新概念推动了类脑计算”,对于类脑系统存在的软硬件紧耦合问题而言这是“一个突破性方案”。
论文地址:https://www.nature.com/articles/s41586-020-2782-y
07
神经网络高速训练系统
进展7:北京大学首次实现基于相变存储器的神经网络高速训练系统
2020年12月,智源学者、北京大学杨玉超团队提出并实现了一种基于相变存储器(PCM)电导随机性的神经网络高速训练系统,有效地缓解了人工神经网络训练过程中时间、能量开销巨大并难以在片上实现的问题。
该系统在误差直接回传算法(DFA)的基础上进行改进,利用PCM电导的随机性自然地产生传播误差的随机权重,有效降低了系统的硬件开销以及训练过程中的时间、能量消耗。该系统在大型卷积神经网络的训练过程中表现优异,为人工神经网络在终端平台上的应用以及片上训练的实现提供了新的方向。该文章发表在微电子领域的顶级会议IEDM2020上。
文章:YingmingLu,XiLi,LonghaoYan,TengZhang,YuchaoYang*,ZhitangSong*,andRuHuang*,AcceleratedLocalTrainingofCNNsbyOptimizedDirectFeedbackAlignmentBasedonStochasticityof4MbC-dopedGe2Sb2Te5PCMChipin40nmNode.IEDMTech.Dig.36.3,2020.
08
19个类脑神经元实现自动驾驶
进展8:MIT仅用19个类脑神经元实现控制自动驾驶汽车
受秀丽隐杆线虫等小型动物脑的启发,来自MIT计算机科学与人工智能实验室(CSAIL)、维也纳工业大学、奥地利科技学院的团队仅用19个类脑神经元就实现了控制自动驾驶汽车,而常规的深度神经网络则需要数百万神经元。此外,这一神经网络能够模仿学习,具有扩展到仓库的自动化机器人等应用场景的潜力。这一研究成果已发表在2020年10月13日的《自然》杂志子刊《自然·机器智能》(NatureMachineIntelligence)上。
09
全新无监督表征学习算法
进展9:Google与Facebook团队分别提出全新无监督表征学习算法
2020年初,Google与Facebook分别提出SimCLR与MoCo两个算法,均能够在无标注数据上学习图像数据表征。两个算法背后的框架都是对比学习(contrastivelearning)。对比学习的核心训练信号是图片的“可区分性”。
模型需要区分两个输入是来自于同一图片的不同视角,还是来自完全不同的两张图片的输入。这个任务不需要人类标注,因此可以使用大量无标签数据进行训练。尽管Google和FaceBook的两个工作对很多训练的细节问题进行了不同的处理,但它们都表明,无监督学习模型可以接近甚至达到有监督模型的效果。
SimCLR框架示意图
论文地址:https://ai.googleblog.com/2020/04/advancing-self-supervised-and-semi.html
10
无偏公平排序模型
进展10:康奈尔大学提出无偏公平排序模型,可缓解检索排名的马太效应问题
近年来,检索的公平性和基于反事实学习的检索和推荐模型已经成为信息检索领域重要的研究方向,相关的研究成果已经被广泛应用于点击数据纠偏、模型离线评价等,部分技术已经落地于阿里和华为等公司的推荐及搜索产品中。
2020年7月,康奈尔大学ThorstenJoachims教授团队发表了公平无偏的排序学习模型FairCo,一举夺得了国际信息检索领域顶会SIGIR2020最佳论文奖。该研究分析了当前排序模型普遍存在的位置偏差、排序公平性以及物品曝光的马太效应问题等,基于反事实学习技术提出了具有公平性约束的相关度无偏估计方法,并实现了排序性能的提升,受到了业界的广泛关注和好评。
论文地址:https://arxiv.org/abs/2005.14713
2021人工智能十大趋势
在12月31日,智源研究院发布了2020年十大AI进展。新的一年,人工智能又将走向何处?
2021年开年,全体智源学者经过深入研讨,从人工智能的基础理论、算法、类脑计算、算力支撑等方面进行预测,提出2021年人工智能十大技术趋势,共同展望人工智能的未来发展方向。
我们相信,随着人工智能技术的逐渐成熟,将能够更好地帮助人类应对后疫情时代的各种不确定性,助力构建充满希望与变化的世界。
趋势1:科学计算中的数据与机理融合建模
趋势2:深度学习理论迎来整合与突破
趋势3:机器学习向分布式隐私保护方向演进
趋势4:大规模自监督预训练方法进一步发展
趋势5:基于因果学习的信息检索模型与系统成为重要发展方向
趋势6:类脑计算系统从“专用”向“通用”逐步演进
趋势7:类脑计算从散点独立研究向多点迭代发展迈进
趋势8:神经形态硬件特性得到进一步的发掘并用于实现更为先进的智能系统
趋势9:人工智能从脑结构启发走向结构与功能启发并重
趋势10:人工智能计算中心成为智能化时代的关键基础设施
趋势1:科学计算中的数据与机理融合建模
机器学习与科学计算的结合,即数据和机理的融合计算,为科学研究提供了新的手段和范式,成为了前沿计算的典型代表。从机理出发的建模以基本物理规律为出发点进行演绎,追求简洁与美的表达;从数据出发的建模从数据中总结规律,追求在实践中的应用效果。这两方面的建模方法都在科学史中发挥了重要作用。
近年来,科学计算发展的一个重要趋势是由单纯基于机理或数据的范式向数据与机理的融合建模与计算发展。众多前沿科学领域中的许多重要问题常常涉及多个发生在不同时空尺度上相互耦合的物理过程,具有高度的各向异性、奇异性、非均匀性以及不确定性等特征。人类只能知道部分原理和数据,此时机理与数据结合的方式将成为研究这些问题的有力手段。
趋势2:深度学习理论迎来整合与突破
深度学习在应用领域取得了令人瞩目的成功,但其理论基础仍十分薄弱,研究者对深度学习为何表现出比传统机器学习方法更优越的性能背后存在的机理尚不清楚。深度学习的理论分析需要从数学、统计和计算的不同角度,以及表示能力、泛化能力、算法收敛性和稳定性等多个方面进行探索和创新。当前对深度学习理论碎片式的理解,将进一步迎来整合与突破,从对浅层网络和局部性质的理解向深度网络和全局性质不断深化,最终能够完整解答关于深度学习能力与极限的重大理论问题。
趋势3:机器学习向分布式隐私保护方向演进
当前,全球多个国家和地区已出台数据监管法规,如HIPAA(美国健康保险便利和责任法案)、GDPR(欧盟通用数据保护条例)等,通过严格的法规限制多机构间隐私数据的交互。分布式隐私保护机器学习通过加密、分布式存储等方式保护机器学习模型训练的输入数据,是打破数据孤岛、完成多机构联合训练建模的可行方案。
趋势4:大规模自监督预训练方法进一步发展
GPT-3的出现激发了研究人员在视觉等更广泛的范围内,对大规模自监督预训练方法继续开展探索和研究,未来,基于大规模图像、语音、视频等多模态数据,以及跨语言的自监督预训练模型将进一步发展,研究人员也将持续探索解决当前大规模自监督预训练模型不具有认知能力等问题的方法。
趋势5:基于因果学习的信息检索模型与系统成为重要发展方向
人工智能算法是推荐系统、搜索引擎等智能信息检索系统的核心技术,深刻地影响着亿万互联网产品用户的工作和生活。当前基于人工智能算法的信息检索模型大多关注给定数据中变量间相关性的建立,而相关性与更为本源的因果关系并不等价,导致当前信息检索的结果存在较为严重的偏差,对抗攻击的能力不佳,且模型往往缺乏可解释性。
为了实现真正智能化的信息检索系统,基于因果学习的检索模型是必然要迈过的一道坎。因果学习能够识别信息检索中变量间的因果关系,厘清事物发展变化的前因后果,全面认识用户需求和检索方法的本质,修正检索模型中的偏差,提升检索系统的可解释性、可操作性和可溯源性。
趋势6:类脑计算系统从“专用”向“通用”逐步演进
以类脑计算芯片为核心的各种类脑计算系统,在处理某些智能问题以及低功耗智能计算方面正逐步展露出优势。但从设计方法角度看,类脑芯片往往根据目标应用要求通过归纳法来确定其硬件功能与接口,并定制化工具链软件,导致软硬件紧耦合、目标应用范围受限等问题。
类脑计算芯片设计将从现有处理器的设计方法论及其发展历史中汲取灵感,在计算完备性理论基础上结合应用需求实现完备的硬件功能。同时类脑计算基础软件将整合已有类脑计算编程语言与框架,提出与具体芯片无关的高层次编程抽象与统一开发框架,针对目标芯片研发类脑计算编译优化与映射优化技术,实现类脑计算系统从“专用”向“通用”的逐步演进。
趋势7:类脑计算从散点独立研究向多点迭代发展迈进
类脑计算在诸多方面已经取得了大量基础性研究成果,但目前的研究仍呈现相对独立狭窄的纵向分布特点,尚未形成相互促进的横向贯通局面。未来的类脑计算将更加注重在单点独立研究的同时与其他层面研究的结合,推动类脑计算的基础理论算法、芯片硬件平台、评估测试基准、编程编译工具以及系统应用的相互协同和促进,构建更具全栈性的类脑计算迭代发展生态,进入良性前进的轨道。
趋势8:神经形态硬件特性得到进一步的发掘并用于实现更为先进的智能系统
新型神经形态器件,如RRAM(可变电阻式存储器)、PCM(相变存储器)等,目前已经在人工智能领域发挥了重大作用,基于这些器件构建的智能硬件系统已经能够有效地提升智能算法执行的速度和能效,并保持算法的性能。
然而当前大部分硬件智能系统仅仅利用了神经形态器件的部分特性,如非易失性、线性等,缺乏对器件更丰富特性,如易失性、非线性、随机性等特性的应用。通过对器件的全面探究,下一代智能系统将会把算法的各种需求同器件的丰富特性紧密结合起来,从而进一步拓展智能系统的功能和应用范围,提升系统的性能和效率。
趋势9:人工智能从脑结构启发走向结构与功能启发并重
脑启发的人工智能在强调对脑结构和神经形态模仿的同时,还需要了解人类神经元和神经回路的功能与机制。这是因为脑结构与脑功能并不存在简单的一一对应的关系,即类似的结构可能有着不同的功能。
例如,作为古老结构的海马体在人和动物的大脑上有着类似的结构,但是它们采用了不同的记忆编码方式。动物的海马体在编码记忆时,采用的是“模式分离”的方式,即神经元形成不同的神经元群组来存储记忆,以避免记忆的混淆。但是,人类的海马体则采用了“概念和联想”的编码方式,即同样的一组神经元可以储存多个不同的记忆。人类这种独特的记忆编码方式可能是人类智能脱颖而出的一个关键因素,有助于解释人类相比于其它物种所具备的独特的认知能力,如人类的抽象思维能力和创造性思维能力。
趋势10:人工智能计算中心成为智能化时代的关键基础设施
近年来,人工智能对算力的需求迅猛增长,并成为最重要的计算算力资源需求之一。AI计算是智能时代发展的核心动力,以人工智能算力为主的人工智能计算中心应运而生。
人工智能计算中心基于最新人工智能理论,采用领先的人工智能计算架构,是融合公共算力服务、数据开放共享、智能生态建设、产业创新聚集的“四位一体”综合平台,可提供算力、数据和算法等人工智能全栈能力,是人工智能快速发展和应用所依托的新型算力基础设施。未来,随着智能化社会的不断发展,人工智能计算中心将成为关键的信息基础设施,推动数字经济与传统产业深度融合,加速产业转型升级,促进经济高质量发展。
京东购书,赠送超值大礼包
返回搜狐,查看更多
2023年度全球人工智能治理趋势盘点 (完整版)
自2017年以来,加拿大、美国、中国、英国、新加坡、韩国、加拿大、欧盟、经合组织等国家或地区已陆续发布人工智能发展原则和治理准则。在2021年度,全球范围内关于人工智能治理的准则和战略进一步深化和具体,各国和地区不再仅局限于制定宏观层面的指导战略,而是日益细化至各个具体层面。美国为了确保其在人工智能领域的全球领导地位,在2021年度出台的与人工智能相关的立法和研究政策显著增加。不仅通过了国家层面的人工智能战略——2021年国家人工智能倡议法案,还正式成立了国家人工智能倡议办公室,该办公室旨在负责实施美国的人工智能国家战略,并监督和协调联邦政府与私营部门之间的研究工作。美国国家人工智能安全委员会(NSCAI)还发布了《人工智能国家安全委员会最终报告》,该报告是NSCAI为美国赢得人工智能时代的竞争而提出的战略。此外,于2021年6月8日投票《美国创新与竞争法》明确指出要通过投资来提高美国在技术领域应对中国带来的竞争的能力,并且将人工智能、机器学习等列为重点关注的关键技术。在白宫科学技术政策办公室(OSTP)和国家科学基金会(NSF)牵头之下,美国还宣布成立了国家人工智能研究资源工作组,该小组将帮助创建一个共享的国家人工智能研究基础设施,提供可访问的计算资源、高质量数据、教育工具和用户支持。而针对具体的治理领域,美国也陆续推出了一系列举措。例如,在算法治理方面,美国政府问责局(GAO)在2021年6月发布了一份确保联邦机构和其他参与人工智能系统设计、开发、部署和持续监控的实体可以负责任地使用人工智能的报告。OSTP则在2021年11月10日表示,将举办一系列活动让美国公众参与到制定与算法治理有关的法案的过程。美国国家人工智能倡议办公室主任LynneParker表示,美国在人工智能算法监管方面的愿景以欧盟的《通用数据保护条例》(GDPR)为蓝本。为了解决算法透明度和公平性方面的问题,美国联邦贸易委员会(FTC)在2021年4月发布了指南,该指南强调了FTC计划在影响消费者的算法决策方面执行透明度和公平原则的决心。在国家安全方面,美国国防部国防创新部门于2021年11月14日发布了“负责任的AI指南”,为第三方开发人员构建军用AI提供了指导。在保障劳动力就业方面,美国平等就业机会委员会(EEOC)表示该机构计划审查人工智能工具和技术如何应用于就业决策,以及旨在指导雇主公平使用人工智能技术,遵守联邦平等就业机会法。在面部识别和个人隐私方面,部分民主党参议员在2021年6月提出了暂停面部识别和生物识别技术的法案。在技术发展方面,美国国土安全部科学技术局发布了《人工智能与机器学习战略计划》,该计划提出了未来三大战略目标,即推动用于跨领域国土安全能力的下一代人工智能和机器学习技术发展;促进在国土安全任务中使用经过验证的人工智能与机器学习能力;以及建立经人工智能与机器学习技术培训的跨学科员工队伍。2023年全球生物识别行业市场现状及发展趋势分析 进一步数字化、智能化发展
未来非接触式识别将得以大量应用
生物识别是根据人类生理特征(人脸、指纹、虹膜等)和行为特征(姿态、动作、情感等)实现身份认证的技术。常用的生物识别技术主要包括人脸识别、指纹识别、虹膜识别、行为识别以及步态识别。
随着生物识别、人工智能等技术的发展,生物识别市场规模稳步增长,2019年全球生物特征识别技术市场规模约为200亿美元。指纹识别因综合性优势市占率最高,占比达58%。2020年新冠肺炎的爆发,促使非接触生物识别市场的需求不断增加,未来,非接触式识别将得以大量应用。
1、全球生物识别市场规模持续增长
生物识别是根据人类生理特征(人脸、指纹、虹膜等)和行为特征(姿态、动作、情感等)实现身份认证的技术。在进行人体身份认证时,其主要通过计算机与光学、声学、生物传感器和生物统计学原理等高科技手段密切结合,利用人体固有的生理特性和行为特征来进行个人身份的鉴定。目前,常用的生物识别技术主要包括人脸识别、指纹识别、虹膜识别、行为识别以及步态识别。
随着生物识别、人工智能等技术的发展,生物识别市场规模稳步增长,根据信通院数据显示,2019年全球生物特征识别技术市场规模约为200亿美元。
2、指纹识别因综合性优势市占率最高
分产品来看,生物识别技术市场结构中指纹识别是主要的识别方式,占比达58%,排名第一,人脸识别占比为18%,其次是新兴的虹膜识别占比7%,此外还包括掌纹识别以及声音识别分别占比7%及5%。
对比不同的生物识别技术,指纹识别作为全球生物识别技术中使用最多的技术,其便利性、安全性、识别成本等相对于其他生物识别技术具有综合性的优势,指纹识别具备较高的技术易用性及便利性,在安全方面也可以满足日常使用,设备成本适中,因此被广泛使用;
人脸识别的安全性早期受到市场极高的肯定,但是近年来人脸识别频频触雷,也引发了人们对于人脸识别安全性的担忧。
虹膜识别以及静脉识别虽然具备较高的安全级别,但是设备实现的成本高且体积较大,不便于日常使用,仅应用在部分安全等级极高的场景,如金库、实验室、档案室等。
分区域来看,在生物识别产业中,北美地区占比最高,达到33.5%,其次为亚太地区,为23.8%。美国是全球主要的生物识别市场,中国的生物识别市场在全球来看,占比较低,但是中国作为全球经济发展最快的国家之一,未来生物识别市场规模将会保持快速增长。
3、多模态生物识别技术将得以大量应用
近年来,生物特征识别产业发展迅速,产业链基本形成,市场规模快速增长。2020年新冠肺炎的爆发,促使非接触生物识别市场的需求不断增加。随着生物识别市场新技术不断涌现落地,生物识别场景趋于多样化,产品服务趋于定制化发展,多模态生物识别技术将得以大量应用,系统安全提升;5G、人工智能、大数据、云计算等技术与生物识别结合引领产业升级,进一步数字化、智能化发展。
更多数据及分析请参考于前瞻产业研究院发布的《中国生物识别技术行业市场调研与投资预测分析报告》,同时前瞻产业研究院提供产业大数据、产业规划、产业申报、产业园区规划、产业招商引资、IPO募投可研等解决方案。