人工智能技术的三个层次
随着智能制造热潮的到来,人工智能应用已经贯穿于设计、生产、管理和服务等制造业的各个环节。
人工智能的概念第一次被提出,是在20世纪50年代,距今已六十余年的时间。然而直到近几年,人工智能才迎来爆发式的增长,究其原因,主要在于日趋成熟的物联网、大数据、云计算等技术。
物联网使得大量数据能够被实时获取,大数据为深度学习提供了数据资源及算法支撑,云计算则为人工智能提供了灵活的计算资源。这些技术的有机结合,驱动着人工智能技术不断发展,并取得了实质性的进展。AlphaGo与李世石的人机大战,更是将人工智能推到了风口浪尖,引爆了新一轮的人工智能热潮。 此后的近几年,关于人工智能的研究和应用开始遍地开花。随着智能制造热潮的到来,人工智能应用已经贯穿于设计、生产、管理和服务等制造业的各个环节。
01
人工智能技术的三个层次
人工智能技术和产品经过过去几年的实践检验,目前应用较为成熟,推动着人工智能与各行各业的加速融合。从技术层面来看,业界广泛认为,人工智能的核心能力可以分为三个层面,分别是计算智能、感知智能、认知智能。
1、计算智能
计算智能即机器具备超强的存储能力和超快的计算能力,可以基于海量数据进行深度学习,利用历史经验指导当前环境。随着计算力的不断发展,储存手段的不断升级,计算智能可以说已经实现。例如AlphaGo利用增强学习技术完胜世界围棋冠军;电商平台基于对用户购买习惯的深度学习,进行个性化商品推荐等。
2、感知智能
感知智能是指使机器具备视觉、听觉、触觉等感知能力,可以将非结构化的数据结构化,并用人类的沟通方式与用户互动。随着各类技术发展,更多非结构化数据的价值被重视和挖掘,语音、图像、视频、触点等与感知相关的感知智能也在快速发展。无人驾驶汽车、著名的波士顿动力机器人等就运用了感知智能,它通过各种传感器,感知周围环境并进行处理,从而有效指导其运行。
3、认知智能
相较于计算智能和感知智能,认知智能更为复杂,是指机器像人一样,有理解能力、归纳能力、推理能力,有运用知识的能力。目前认知智能技术还在研究探索阶段,如在公共安全领域,对犯罪者的微观行为和宏观行为的特征提取和模式分析,开发犯罪预测、资金穿透、城市犯罪演化模拟等人工智能模型和系统;在金融行业,用于识别可疑交易、预测宏观经济波动等。要将认知智能推入发展的快车道,还有很长一段路要走。
02
人工智能制造业应用场景
从应用层面来看,一项人工智能技术的应用可能会包含计算智能、感知智能等多个层次的核心能力。工业机器人、智能手机、无人驾驶汽车、无人机等智能产品,本身就是人工智能的载体,其硬件与各类软件结合具备感知、判断的能力并实时与用户、环境互动,无不是综合了多种人工智能的核心能力。
例如,在制造业中被广泛应用的各种智能机器人:分拣/拣选机器人,能够自动识别并抓取不规则的物体;协作机器人能够理解并对周围环境做出反应;自动跟随物料小车能够通过人脸识别实现自动跟随;借助SLAM(simultaneouslocalizationandmapping,同步定位与地图构建)技术,自主移动机器人可以利用自身携带的传感器识别未知环境中的特征标志,然后根据机器人与特征标志之间的相对位置和里程计的读数估计机器人和特征标志的全局坐标。无人驾驶技术在定位、环境感知、路径规划、行为决策与控制方面,也综合应用了多种人工智能技术与算法。 目前制造企业中应用的人工智能技术,主要围绕在智能语音交互产品、人脸识别、图像识别、图像搜索、声纹识别、文字识别、机器翻译、机器学习、大数据计算、数据可视化等方面。下文则总结制造业中常用的八大人工智能应用场景。
场景一:智能分拣
制造业上有许多需要分捡的作业,如果采用人工的作业,速度缓慢且成本高,而且还需要提供适宜的工作温度环境。如果采用工业机器人进行智能分拣,可以大幅减低成本,提高速度。 以分拣零件为例。需要分捡的零件通常并没有被整齐摆放,机器人虽然有摄像头可以看到零件,但却不知道如何把零件成功地捡起来。在这种情况下,利用机器学习技术,先让机器人随机进行一次分捡动作,然后告诉它这次动作是成功分捡到零件还是抓空了,经过多次训练之后,机器人就会知道按照怎样的顺序来分捡才有更高的成功率;分捡时夹哪个位置会有更高的捡起成功率;知道按照怎样的顺序分捡,成功率会更高。经过几个小时的学习,机器人的分捡成功率可以达到90%,和熟练工人的水平相当。
场景二:设备健康管理
基于对设备运行数据的实时监测,利用特征分析和机器学习技术,一方面可以在事故发生前进行设备的故障预测,减少非计划性停机。另一方面,面对设备的突发故障,能够迅速进行故障诊断,定位故障原因并提供相应的解决方案。在制造行业应用较为常见,特别是化工、重型设备、五金加工、3C制造、风电等行业。 以数控机床为例,用机器学习算法模型和智能传感器等技术手段监测加工过程中的切削刀、主轴和进给电机的功率、电流、电压等信息,辩识出刀具的受力、磨损、破损状态及机床加工的稳定性状态,并根据这些状态实时调整加工参数(主轴转速、进给速度)和加工指令,预判何时需要换刀,以提高加工精度、缩短产线停工时间并提高设备运行的安全性。
图1基于深度学习的刀具磨损状态预测(来源:华中科技大学李斌教授)
场景三:基于视觉的表面缺陷检测
基于机器视觉的表面缺陷检测应用在制造业已经较为常见。利用机器视觉可以在环境频繁变化的条件下,以毫秒为单位快速识别出产品表面更微小、更复杂的产品缺陷,并进行分类,如检测产品表面是否有污染物、表面损伤、裂缝等。目前已有工业智能企业将深度学习与3D显微镜结合,将缺陷检测精度提高到纳米级。对于检测出的有缺陷的产品,系统可以自动做可修复判定,并规划修复路径及方法,再由设备执行修复动作。 例如,PVC管材是最常用的建筑材料之一,消耗量巨大,在生产包装过程中容易存在表面划伤、凹坑,水纹,麻面等诸多类型的缺陷,消耗大量的人力进行检测。采用了表面缺陷视觉自动检测后,通过面积、尺寸最小值、最大值设定,自动进行管材表面杂质检测,最小检测精度为0.15mm²,检出率大于99%;通过划伤长度、宽度的最小值、最大值设定,自动进行管材表面划伤检测,最小检测精度为0.06mm,检出率大于99%;通过褶皱长度、宽度的最小值、最大值、片段长度、色差阈值设定,自动进行管材表面褶皱检测,最小检测精度为10mm,检出率大于95%。
图2PVC管材表面褶皱检测(来源:维视智造)
场景四:基于声纹的产品质量检测与故障判断
利用声纹识别技术实现异音的自动检测,发现不良品,并比对声纹数据库进行故障判断。例如,从2018年年末开始,佛吉亚(无锡)工厂就与集团大数据科学家团队展开全面合作,致力于将AI技术应用于座椅调角器的NVH性能评判(震动噪声测试)。2019年,佛吉亚(无锡)工厂将AI技术应用到调角器异音检测中,实现从信号采集、数据存储、数据分析到自我学习全过程的自动化,检测效率及准确性远超传统人工检测。随着基于AI(人工智能)技术的噪声检测系统在无锡工厂投入应用,人员数量已经从38人下降至3人,同时,质量控制能力显著提高,年经济效益高达450万人民币。
场景五:智能决策
制造企业在产品质量、运营管理、能耗管理和刀具管理等方面,可以应用机器学习等人工智能技术,结合大数据分析,优化调度方式,提升企业决策能力。 例如,一汽解放无锡柴油机厂的智能生产管理系统,具有异常和生产调度数据采集、基于决策树的异常原因诊断、基于回归分析的设备停机时间预测、基于机器学习的调度决策优化等功能。通过将历史调度决策过程数据和调度执行后的实际生产性能指标作为训练数据集,采用神经网络算法,对调度决策评价算法的参数进行调优,保证调度决策符合生产实际需求。
场景六:数字孪生
数字孪生是客观事物在虚拟世界的镜像。创建数字孪生的过程,集成了人工智能、机器学习和传感器数据,以建立一个可以实时更新的、现场感极强的“真实”模型,用来支撑物理产品生命周期各项活动的决策。在完成对数字孪生对象的降阶建模方面,可以把复杂性和非线性模型放到神经网络中,借助深度学习建立一个有限的目标,基于这个有限的目标,进行降阶建模。 例如,在传统模式下,一个冷热水管的出水口流体及热仿真,用16核的服务器每次运算需要57个小时,进行降阶建模之后每次运算只需要几分钟。
场景七:创成式设计
创成式设计(GenerativeDesign)是一个人机交互、自我创新的过程。工程师在进行产品设计时,只需要在系统指引下,设置期望的参数及性能等约束条件,如材料、重量、体积等等,结合人工智能算法,就能根据设计者的意图自动生成成百上千种可行性方案,然后自行进行综合对比,筛选出最优的设计方案推送给设计者进行最后的决策。 创成式设计已经成为一个新的交叉学科,与计算机和人工智能技术进行深度结合,将先进的算法和技术应用到设计中来。得到广泛应用的创成式算法包括:参数化系统、形状语法(ShapeGrammars(SG))、L-系统(L-systems)、元胞自动机(CellularAutomata(CA))、拓扑优化算法、进化系统和遗传算法等。
图3轮辐的创成式设计(来源:安世亚太)
场景八:需求预测,供应链优化
以人工智能技术为基础,建立精准的需求预测模型,实现企业的销量预测、维修备料预测,做出以需求导向的决策。同时,通过对外部数据的分析,基于需求预测,制定库存补货策略,以及供应商评估、零部件选型等。 例如,为了务实控制生产管理成本,美国本田公司希望能够掌握客户未来的需求会在何时发生,因此将1200个经销商的客户销售与维修资料建立预测模型,推算未来几年内车辆回到经销商维修的数量,这些资讯进一步转为各项零件预先准备的指标。该转变让美国本田已做到预测准确度高达99%,并降低3倍的客诉时间。
03
结语
目前,随着越来越多的企业、高校、开源组织进入人工智能领域,大批成功的人工智能开源软件和平台不断涌入,人工智能迎来前所未有的爆发期。但与金融等行业相比,虽然人工智能在制造业的应用场景不少,却并不突出,甚至可以说发展较慢。 究其原因,主要源于以下三大方面: 一是,由于制造环节数据的采集、利用、开发都有较大难度,加之企业的数据库也以私有为主、数据规模有限,缺乏优质的机器学习样本,制约了机器的自主学习过程。
二是,不同的制造行业之间存在差异,对于人工智能解决方案的复杂性和定制化要求高。 三是,不同的行业内缺乏能够引领人工智能与制造业深度融合发展趋势的龙头企业。 解决以上三大问题,人工智能技术才能更好地应用于制造业。 责任编辑:lq
人工智能专栏第二讲——人工智能的基础技术
目录一、机器学习二、深度学习三、自然语言处理四、计算机视觉五、总结在第一讲中,我们介绍了人工智能的概念和发展趋势,以及人工智能的应用和挑战。本篇文章将探讨人工智能的基础技术,包括机器学习、深度学习、自然语言处理和计算机视觉等方面的技术。
一、机器学习机器学习作为人工智能的重要分支之一,是让计算机从数据中学习,自动改进和提高自身的能力。机器学习的基本思想是通过数据对模型进行训练,让计算机自主学习和优化算法,进行预测、分类、聚类、回归等任务。
机器学习的主要分为监督学习、无监督学习和强化学习三种类型。
1.监督学习
监督学习是机器学习中最常见的一种方法,它基于标注好的数据,给计算机提供正确答案的范例数据以进行学习。在监督学习中,数据通常分为训练数据和测试数据,训练数据主要用于模型的学习和优化,测试数据则用于模型的验证和评估。
监督学习的典型应用包括文本分类、图像识别、语音识别等。
2.无监督学习
无监督学习是在不需要输入数据标签的情况下进行学习,通过对数据的聚类、降维等方法来提取数据的特征或者重要信息。无监督学习通常用于对大量数据进行分析和挖掘,从而发掘数据的规律和有价值的信息。
无监督学习的典型应用包括异常检测、推荐系统、数据挖掘等。
3.强化学习
强化学习是通过代理在给定的环境中学习如何实现某些目标的一种机器学习技术。代理在环境中采取某种行为后,获得环境反馈的奖励或惩罚。强化学习的目标是使代理在环境中获得最大的累积奖励。
强化学习的典型应用包括自动驾驶、机器人控制等。
二、深度学习深度学习是机器学习的一种子领域,它依赖于多层神经网络来进行处理和学习,解决了机器学习中的限制和问题。深度学习的核心思路是通过构建多层次的神经网络模型,来对数据进行特征提取、降维、分类等任务。
深度学习广泛应用于计算机视觉、自然语言处理、语音处理等多个领域,成为当前人工智能的热门技术之一。
三、自然语言处理自然语言处理是指让计算机可以理解和处理人类语言的技术,主要应用于文本数据处理、语音识别、机器翻译等领域。
自然语言处理中的核心技术包括词法分析、句法分析、语义分析等。其中,词法分析主要是将自然语言中的词语进行分词和词义分析,句法分析则是基于语法规则对句子进行分析和理解,而语义分析则是更高层次的分析,主要是对句子的意思进行理解和推理。
自然语言处理技术与深度学习的结合,使得目前的自然语言处理技术得到了显著的提升,例如机器翻译的准确度和文本分类的效果等。
四、计算机视觉计算机视觉是指利用计算机和数字信号处理技术来模拟和处理人类视觉系统的过程,将图像、视频等视觉信息转化为数字信息进行处理。目前,计算机视觉主要应用于图像识别、人脸识别、场景分割等领域。
计算机视觉的核心技术包括图像处理、图像分析、图像识别等。其中,图像处理主要是对图像进行去噪、增强、纠正等操作,图像分析则是对图像的特征进行提取和分析,而图像识别则是识别和分类图像中的内容。
深度学习与计算机视觉的结合,可以帮助计算机识别和理解更多、更复杂的图像内容,以提高计算机视觉技术的准确性和实用性。例如,在人脸识别领域,深度学习可以通过对大量人脸数据进行学习和识别,从而提高识别准确度和速度。
五、总结人工智能的基础技术包括机器学习、深度学习、自然语言处理和计算机视觉等。这些技术的不断发展和提升,推动了人工智能在各个领域的应用和发展。在未来,人工智能技术将会更加成熟和普及,它将为人类社会带来更多的便利和进步。
人工智能的三次浪潮与三种模式
■史爱武
谈到人工智能,人工智能的定义到底是什么?
达特茅斯会议上对人工智能的定义是:使一部机器的反应方式就像是一个人在行动时所依据的智能。
百度百科上对人工智能的定义是:它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
尽管人工智能现在还没有非常严格准确或者所有人都接受的定义,但是有一些约定俗成的说法。通常人工智能是指机器智能,让机器达到人智能所实现的一些功能。人工智能既然是机器智能,就不是机械智能,那么这个机器是指什么呢?是指计算机,用计算机仿真出来的人的智能行为就可以叫作人工智能。
2017年7月,国务院印发了《新一代人工智能发展规划》。2017年12月,人工智能入选“2017年度中国媒体十大流行语”。这一国家级战略和社会流行趋势标志着,人工智能发展进入了新阶段,我国要抢抓人工智能发展的重大战略机遇,构筑人工智能发展的先发优势,加快建设创新型国家和世界科技强国。
人工智能的三次浪潮
自1956年开始,人工智能经历了三起三落,出现了几次浪潮,现在人工智能已经是处于第三次浪潮了。
第一次浪潮(1956-1976年,20年),最核心的是逻辑主义
逻辑主义主要是用机器证明的办法去证明和推理一些知识,比如用机器证明一个数学定理。要想证明这些问题,需要把原来的条件和定义从形式化变成逻辑表达,然后用逻辑的方法去证明最后的结论是对的还是错的,也叫做逻辑证明。
早期的计算机人工智能实际上都是沿着这条路在走。当时很多专家系统,比如医学专家系统,用语言文字输入一些症状,在机器里面变换成逻辑表达,用符号演算的办法推理出大概得了什么病。所以当时的主要研究都集中在逻辑抽象、逻辑运算和逻辑表达等方面。
在第一次浪潮中,数学定理证明实际上是实现效果最好的,当时有很多数学家用定理思路证明了数学定理。为了更好地完成定理证明工作,当时出了很多和逻辑证明相关的逻辑程序语言,比如很有名的Prolog。
虽然当时的成果已经能够解开拼图或实现简单的游戏,却几乎无法解决任何实用的问题。
第二次浪潮(1976—2006年,30年),联结主义盛行
在第一次浪潮期间,逻辑主义和以人工神经网络为代表的联结主义相比,逻辑主义是完全占上风的,联结主义那时候不太吃香。然而逻辑主义最后无法解决实用的问题,达不到人们对它的期望,引起了大家的反思,这时候人工神经网络(也就是联结主义)就慢慢占了上风。
在70年代末,整个神经元联结网络、模型都有突飞猛进的进步,最重要的是BP前馈神经网络。1986年BP前馈神经网络刚出来的时候解决了不少问题,后来大家往更大的领域应用,实现了比较大的成果。在很多模式识别的领域、手写文字的识别、字符识别、简单的人脸识别也开始用起来,这个领域一下子就热起来,一时之间,人们感觉人工智能大有可为。随后十几年人们发现神经网络可以解决一些单一问题,解决复杂问题却有些力不从心。训练学习的时候,数据量太大,有很多结果到一定程度就不再往上升了。
这时期所进行的研究,是以灌输“专家知识”作为规则,来协助解决特定问题的“专家系统”为主。虽然有一些实际的商业应用案例,应用范畴却很有限,第二次热潮也就慢慢趋于消退。
第三次浪潮(2006—现在),基于互联网大数据的深度学习的突破
如果按照技术分类来讲,第二次和第三次浪潮都是神经网络技术的发展,不同的是,第三次浪潮是多层神经网络的成功,也就是深度学习取得突破。这里既有硬件的进步,也有卷积神经网络模型与参数训练技巧的进步。
若观察脑的内部,会发现有大量称为“神经元”的神经细胞彼此相连。一个神经元从其他神经元那里接收的电气信号量达某一定值以上,就会兴奋(神经冲动);在某一定值以下,就不会兴奋。兴奋起来的神经元,会将电气信号传送给下一个相连的神经元。下一个神经元同样会因此兴奋或不兴奋。简单来说,彼此相连的神经元,会形成联合传递行为。我们透过将这种相连的结构来数学模型化,便形成了人工神经网络。
经模型化的人工神经网络,是由“输入层”“隐藏层”及“输出层”等三层构成。深度学习往往意味着有多个隐藏层,也就是多层神经网络。另外,学习数据则是由输入数据以及相对应的正确解答来组成。
为了让输出层的值跟各个输入数据所对应的正解数据相等,会对各个神经元的输入计算出适当的“权重”值。通过神经网络,深度学习便成为了“只要将数据输入神经网络,它就能自行抽出特征”的人工智能。
伴随着高性能计算机、云计算、大数据、传感器的普及,以及计算成本的下降,“深度学习”随之兴起。它通过模仿人脑的“神经网络”来学习大量数据的方法,使它可以像人类一样辨识声音及影像,或是针对问题做出合适的判断。在第三次浪潮中,人工智能技术及应用有了很大的提高,深度学习算法的突破居功至伟。
深度学习最擅长的是能辨识图像数据或波形数据这类无法符号化的数据。自2010年以来,Apple、Microsoft及Google等国际知名IT企业,都投入大量人力物力财力开展深度学习的研究。例如AppleSiri的语音识别,Microsoft搜索引擎Bing的影像搜寻等等,而Google的深度学习项目也已超过1500项。
深度学习如此快速的成长和应用,也要归功于硬件设备的提升。图形处理器(GPU)大厂英伟达(NVIDIA)利用该公司的图形适配器、连接库(Library)和框架(Frame⁃work)产品来提升深度学习的性能,并积极开设研讨课程。另外,Google也公开了框架TensorFlow,可以将深度学习应用于大数据分析。
人工智能的3种模式
人工智能的概念很宽泛,根据人工智能的实力可以分成3大类,也称为3种模式。
(1)弱人工智能:擅长于单个方面的人工智能,也叫专业人工智能。比如战胜世界围棋冠军的人工智能AlphaGo,它只会下围棋,如果让它下国际象棋或分辨一下人脸,它可能就会犯迷糊,就不知道怎么做了。当前我们实现的几乎全是弱人工智能。
(2)强人工智能:是指在各方面都能和人类比肩的人工智能,这是类似人类级别的人工智能,也叫通用人工智能。人类能干的脑力活,它都能干,创造强人工智能比创造弱人工智能难得多,目前我们还做不到。
(3)超人工智能:知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。超人工智能可以是各方面都比人类强点,也可以是各方面都比人类强很多倍。超人工智能现在还不存在,很多人也希望它永远不要存在。否则,可能像好莱坞大片里面的超级智能机器一样,对人类也会带来一些威胁或者颠覆。
我们现在处于一个充满弱人工智能的世界。比如,垃圾邮件分类系统是个帮助我们筛选垃圾邮件的弱人工智能;Google翻译是可以帮助我们翻译英文的弱人工智能等等。这些弱人工智能算法不断地加强创新,每一个弱人工智能的创新,都是迈向强人工智能和超人工智能的进步。正如人工智能科学家AaronSaenz所说,现在的弱人工智能就像地球早期软泥中的氨基酸,可能突然之间就形成了生命。如世界发展的规律看来,超人工智能也是未来可期的!
人工智能与自然语言处理技术
随着人工智能技术的发展,我们生活中的许多应用都带上了“AI”的色彩,比如可以用计算机帮翻译外文文档。但有时候人工智也能会出一些小故障,变得不那么智能,尤其在语言处理方面。那么我们怎样才能让人工智能变成真正的“智能”呢?自然语言处理技术就是一个重要的方式。
自然语言处理技术(即natural language processing,简称NPL)是人工智能的一个重要分支,其目的是利用计算机对自然语言进行智能化处理。基础的自然语言处理技术主要围绕语言的不同层级展开,包括音位(语言的发音模式)、形态(字、字母如何构成单词、单词的形态变化)、词汇(单词之间的关系)、句法(单词如何形成句子)、语义(语言表述对应的意思)、语用(不同语境中的语义解释)、篇章(句子如何组合成段落)7个层级。这些基本的自然语言处理技术经常被运用到下游的多种自然语言处理任务中,如机器翻译、对话、问答、文档摘要等。
科学家研究自然语言处理技术(NLP)的目的是让机器能够理解人类语言,用自然语言的方式与人类交流,最终拥有“智能”。AI时代,我们希望计算机拥有视觉、听觉、语言和行动的能力,其中语言是人类区别于动物的最重要特征之一,语言是人类思维的载体,也是知识凝练和传承的载体。在人工智能领域,研究自然语言处理技术的目的就是让机器理解并生成人类的语言,从而和人类平等流畅地沟通交流。
但现在的人工智能常常和我们的人工评价有很大的出入,这也是基于AI算法的自动评测面临的最大挑战:如何与人工评价保持一致?应对这个挑战需要解决很多问题。以智能阅卷为例:如何制定电脑适用的评测标准?人工智能如何应对语言的千变万化?如何设计阅卷综合性的评测指标?有科学家认为,大数据与富知识双轮驱动或许能成为解决问题的关键,即在大数据驱动的基础上加入富知识驱动,可以突破现在智能语言处理技术上的瓶颈。
总而言之,自然语言技术的发展说明人工智能技术的核心还是在“人”。“人工智能和机器学习带给决策过程的支撑和信心将使创新加速,但这并不意味着人类的缺席。人们仍然需要定义分析的起点、标注主题并从收集的信息中提取所需数据。”
本文由北京市第六十五中学一级教师李岩进行科学性把关。
科普中国中央厨房新华网科普事业部科普中国-科学原理一点通联合出品更多精彩内容,请下载科普中国客户端。作者:和卓琳 [责任编辑:魏承瑶]