博舍

智能优化算法的常用改进方法 简述人工智能的常用技术和研究方法有

智能优化算法的常用改进方法

智能优化算法2-改进方法(未完待续)

群智能优化算法是一种模拟自然界生物行为和自然现象的元启发式算法,具有良好的并行性和自主探索性。

1.通过初始化种群改进

大多数群体智能算法(启发式智能优化算法)初始种群中个体的生成是给定范围内随机生成,导致初始个体具有较大的随机性和不确定性,所以可以通过改进初始化种群的方式改进算法优化和收敛性能,实现局部开发和全局探索能力的提升。

1.1混沌映射1.2反向学习1.3莱维飞行1.4佳点集1.5Sobol序列1.6Fuch无线折叠混沌1.7方形邻域拓扑结构2.策略优化个体迭代更新-变异2.1高斯游走2.2随机游走2.3正余弦优化2.4莱维飞行2.5量子旋转门等量子行为2.6双样本学习2.7自适应t分布变异2.8等级制度2.9布朗制度3.权重调整3.1自适应权重3.2拉普拉斯算子3.3非线性惯性权重3.4纵横交叉3.5螺旋式更新3.64.混合算法

将两种算法的优点结合进行改进,如遗传算法和粒子群算法结合的遗传粒子群算法(GAPSO)

5.对具体算法提出的针对性改进策略

做课题与科研项目常用的研究方法

研究方法不出“硬伤”1、常用的研究方法有文献研究法、教育观察法、经验总结法、个案研究法、行动研究法、实验研究法、历史研究法、调查研究法、比较研究法、叙事研究法等。2、研究类型或途径、或某种提法口号不等于具体的研究方法。如实证研究,调查研究、理论研究不能与具体的研究方法并列;理论联系实际、以点带面、上下结合等不是研究方法。3、准确把握每种研究方法的概念特征、步骤方法。    如,文献研究法•

A、概念特征:主要指围绕某个教育问题,搜集、鉴别、整理相关文献,并通过对文献的阅读与研究,形成对教育问题及其事实的科学认识的方法。

B、主要渠道:(1)书籍;(2)报刊;(3)档案(含文件);(4)非文字资料(图片、音像、实物、歌曲等);(5)网络数据库。如,中国国家图书馆:http://opac.nlc.gov.cn

。北京大学图书馆:http://www.lib.pku.edu.cn。湖南师范大学图书馆:http://lib.hunnu.edu.cn。中国期刊网: http://www.cnki.net。

C、查阅核心:(1)代表著作和论文;(2)研究问题的程度和主要观点;(3)存在的不足或有待进一步研究的问题。

D、成果形式:文献综述、研究述评或研究背景等。

     再如,教育观察法   A、概念特征:是指主持人有目的、有计划地通过感官和辅助工具,对处于自然状态下的教育现象进行系统观察,从而获得关于某一事物或者问题的第一手资料,并得出分析结果的一种研究方法。B、研究步骤:①明确观察目的。②编制观察量表。③组建观察团队。④实施观察过程。⑤整理观察材料。⑥分析观察结果。

C、案例描述:观察目的、过程描述、观察数据表、事实描述、结论分析。

D、成果形式:观察日记、观察笔记、观察报告。

还如,个案研究法

A、概念特征:是对单一的研究对象(可以是个人或者团体机构)进行深入而具体研究的一种方法。又称“解剖麻雀法”和“个案追踪法”。其特征是个案的典型性、深入性、全面性。

B、研究分类:(1)追踪法。确定追踪研究的课题、实施追踪研究、整理和分析资料、提出改进意见。(2)追因法。确定问题、假设原因、设置对比、数据检验、结果分析。

(3)产品分析法。通过分析学生的活动产品,如日记、作文、书信、作业、自传、绘画、特长等,以了解学生的能力、倾向、技能、知识、情感等。

B、研究步骤:①确定研究对象。②搜集个案资料。③分析个案资料。④实施个案指导。⑤追踪指导研究。⑥撰写个案研究报告。

又如,经验总结法

1、概念特征:是指通过调查、总结、归纳、解决问题的经验和教训,揭示教育现象的本质及规律的一种研究方法。其特征是经验的新颖性、普遍性、实践性、发展性、实用性。特别注重经验的转化。

2、研究特点:概括主题、归纳要素、形成观点、揭示规律、验证理论。

3、基本步骤:①确立总结对象。②搜集相关材料。③现场相关调查。④分析关键资料。⑤撰写总结报告。

比如,叙事研究法

•  1、概念特征:是指通过描述和分析有意义的教学事件、师生生活和教育教学实践经验,来发掘或揭示内隐于日常工作、事件和行为背后的意义、思想或理念,从中发现教育问题,探究教育思想,揭示教育活动特点和规律的一种方法。

•2、研究特点:以“故事”为研究载体,以叙事为主要研究途径,采用口述、现场记录、日记、开放式访谈、自传等方式开展研究。

3.基本步骤:①确定研究问题。②选择研究对象。③记录教育故事。④分析得出结论。

再如,行动研究法1、概念特征:是指由教育工作者和教育教学管理者共同参与,从教育工作需要中寻找课题,在实际教育工作中进行研究,使研究成果为教育工作者理解、掌握和实施,从而解决教育实际问题的研究方法。2、方法缘由:始于英国的“教师即研究者运动”,强调行动与研究的结合,“为行动而研究、在研究中行动,在行动中研究”。3.基本步骤:

第一轮:

①计划。(比如,问题:学生认为科学只是回忆事实,而不是探索事实!怎样才能使学生积极主动地去探索和研究?计划:改变课堂提问策略。把提问的中心转移到鼓励学生为解决自己的问题而寻找答案。)

②实施(在课堂教学中,经常设计这样一些问题,这些问题能够激发学生探究的兴趣,能够使他们主动说出自己的想法,能够自己尝试归纳答案和结论。)

③观察(通过录像和录音,记录孩子们在这样的问题情境下,各自的表现,特别留意学生与以往不同的行为,关注那些利于达成目的的行为。)

④反思(为了使全班学生按照教师的意图走,我认为还要适当地加强引导,适当加强情景控制,但是,过分的控制会破坏探索性提问。)

第二轮:①计划(继续贯彻原初的基本设想和计划,适当减少控制性陈述)②实施(在以后的课堂中减少控制性陈述)③观察(记录学生在控制性陈述减少的情境下的表现和行为)④反思(………)。

还如,实验研究法1、概念特征:指借鉴自然科学的实验方法,在教育实践中采取的“假设→求证”的方式,来揭示教育规律的过程。教育实验只能是准实验。2、教育实验与自然科学实验的比较:

对象       条件控制      干扰因素     价值取向

教育实验       人       只能相对控制    多而复杂    伦理要求强烈

科学实验       物       基本能控制      少而简单    伦理限制薄弱

3、基本步骤

①提出研究假设(假设:对数学作业题结构进行调整,即每次作业模仿性练习和创造性练习题的比例为7:3或8:2,就能够一定程度上提高学生完成作业的兴趣和质量。自变量:原因变量。因变量:结果变量。无关变量:教师、学习内容等)

②选择实验对象(高一(1)班为实验班;高一(2)班为对比班。两个班级平时的数学学习成绩相近)

③进行实验前测(实验前,运用有关心理测试量表、学习质量和学习效果测试量表,对两个班级学生的数学学习兴趣、学习水平等进行测试)

④严格组织实验(高一(1)班的数学作业题结构进行调整,即每次作业模仿性练习和创造性练习题的比例为7:3或8:2。高一(2)班仍用以前的作业布置方式)

⑤进行实验后测(实验结束后,运用有关测量工具,对两个班级学生的数学学习兴趣、学习水平重新进行测试)

⑥分析检测数据(对实验前测和实验后测所获得的各种数据进行数理统计分析)

⑦撰写实验报告(实验报告的要素:问题的提出、研究的假设、实验的设计、实验的过程、实验的结果、分析与讨论、实验结论、参考文献)

转自:http://www.worlduc.com/blog2012.aspx?bid=5845520

人工智能最新研究发展方向——OCR文字识别简述

1研究背景

人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智能机器会听(语音识别、机器翻译等)、会看(图像识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。人工智能充满未知的探索道路曲折起伏。如何描述人工智能自1956年以来60余年的发展历程,学术界可谓仁者见仁、智者见智。通过查阅资料将人工智能的发展历程划分为以下6个阶段:一是起步发展期:1956年—20世纪60年代初。人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的第一个高潮。二是反思发展期:20世纪60年代—70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如,无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入低谷。三是应用发展期:20世纪70年代初—80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。四是低迷发展期:20世纪80年代中—90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。五是稳步发展期:20世纪90年代中—2010年。由于网络技术特别是互联网技术的发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年国际商业机器公司(简称IBM)深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念。以上都是这一时期的标志性事件。六是蓬勃发展期:2011年至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来爆发式增长的新高潮。

2OCR文字识别2.1什么是OCR?

图自然场景OCR文字识别OCR英文全称是OpticalCharacterRecognition,中文叫做光学字符识别。它是利用光学技术和计算机技术把印在或写在纸上的文字读取出来,并转换成一种计算机能够接受、人又可以理解的格式。文字识别是计算机视觉研究领域的分支之一,而且这个课题已经是比较成熟了,并且在商业中已经有很多落地项目了。比如汉王OCR,百度OCR,阿里OCR等等,很多企业都有能力都是拿OCR技术开始挣钱了。其实我们自己也能感受到,OCR技术确实也在改变着我们的生活:比如一个手机APP就能帮忙扫描名片、身份证,并识别出里面的信息;汽车进入停车场、收费站都不需要人工登记了,都是用车牌识别技术;我们看书时看到不懂的题,拿个手机一扫,APP就能在网上帮你找到这题的答案。太多太多的应用了,OCR的应用在当今时代确实是百花齐放。

2.2OCR的分类

如果要给OCR进行分类分为两类:手写体识别和印刷体识别。这两个可以认为是OCR领域两个大主题了,当然印刷体识别较手写体识别要简单得多,也能从直观上理解,印刷体大多都是规则的字体,因为这些字体都是计算机自己生成再通过打印技术印刷到纸上。在印刷体的识别上有其独特的干扰:在印刷过程中字体很可能变得断裂或者墨水粘连,使得OCR识别异常困难。当然这些都可以通过一些图像处理的技术帮他尽可能的还原,进而提高识别率。总的来说,单纯的印刷体识别在业界已经能做到很不错了,但说100%识别是肯定不可能的,但是说识别得不错那是没毛病。

图手写字体展示印刷体已经识别得不错了,那么手写体呢?手写体识别一直是OCR界一直想攻克的难关,但是时至今天,感觉这个难关还没攻破,还有很多学者和公司在研究。为什么手写体识别的难度在于因为人类手写的字往往带有个人特色,每个人写字的风格基本不一样,印刷体一般都比较规则,字体都基本就那几十种,机器学习这几十种字体并不是一件难事,但是手写体,每个人都有一种字体的话,那机器该学习大量字体,这就是难度所在。

2.3OCR流程

假如输入系统的图像是一页文本,那么识别时的第一件事情是判断页面上的文本朝向,因为得到的这页文档往往都不是很完美的,很可能带有倾斜或者污渍,那么要做的第一件事就是进行图像预处理,做角度矫正和去噪。然后要对文档版面进行分析,进每一行进行行分割,把每一行的文字切割下来,最后再对每一行文本进行列分割,切割出每个字符,将该字符送入训练好的OCR识别模型进行字符识别,得到结果。但是模型识别结果往往是不太准确的,需要对其进行识别结果的矫正和优化,比如可以设计一个语法检测器,去检测字符的组合逻辑是否合理。比如,考虑单词Because,设计的识别模型把它识别为8ecause,那么就可以用语法检测器去纠正这种拼写错误,并用B代替8并完成识别矫正。这样子,整个OCR流程就走完了。从大的模块总结而言,一套OCR流程可以分为:

从上面的流程图可以看出,要做字符识别并不是单纯一个OCR模块就能实现的(如果单纯的OCR模块,识别率相当低),都要各个模块的组合来保证较高的识别率。上面的流程分的比较粗,每个模块下还是有很多更细节的操作,每个操作都关系着最终识别结果的准确性。做过OCR的童鞋都知道,送入OCR模块的图像越清晰(即预处理做的越好),识别效果往往就越好。那现在对这流程中最为重要的字符识别技术做一个总结。

2.4OCR的简单应用

图瓶盖的生产日期识别在一些简单环境下OCR的准确度已经比较高了(比如电子文档),但是在一些复杂环境下的字符识别,在当今还没有人敢说自己能做的很好。现在大家都很少会把目光还放在如何对电子文档的文字识别该怎么进一步提高准确率了,因为他们把目光放在更有挑战性的领域。OCR传统方法在应对复杂图文场景的文字识别显得力不从心,越来越多人把精力都放在研究如何把文字在复杂场景读出来,并且读得准确作为研究课题,用学界术语来说,就是场景文本识别(文字检测+文字识别)。

图人工智能课本识别图

3文本检测CTPN

2016年出了一篇很有名的文本检测的论文:《DetectingTextinNaturalImagewithConnectionistTextProposalNetwork》,这个深度神经网络叫做CTPN,直到今天这个网络框架一直是OCR系统中做文本检测的一个常用网络,极大地影响了后面文本检测算法的方向。回顾一下FasterRCNN做目标检测的一个缺点就是,没有考虑带文本自身的特点。文本行一般以水平长矩形的形式存在,而且文本行中每个字都有间隔。针对这个特点,CTPN剔除一个新奇的想法,把文本检测的任务拆分,第一步检测文本框中的一部分,判断它是不是一个文本的一部分,当对一幅图里所有小文本框都检测之后,将属于同一个文本框的小文本框合并,合并之后得到一个完整的、大的文本框了,也就完成了文本的检测任务。这个想法很有创造性,有点像“分治法”,先检测大物体的一小部分,等所有小部分都检测出来,大物体也就可以检测出来了。图RPN和CTPN对比如图所示,左边的图是直接使用FasterRCNN中的RPN来进行候选框提取,可以看出,这种候选框太粗糙了,效果并不好。而右图是利用许多小候选框来合并成一个大文本预测框,可以看出这个算法的效果非常不错,需要说明的是,红色框表示这个小候选框的置信度比较高,而其他颜色的候选框的置信度比较低,可以看到,一个大文本的边界都是比较难预测的,那怎么解决这个边界预测不准的问题呢?后面会提到。刚提到CTPN的其中一个闪光点,即检测小框代替直接检测大文本框。除了这个新意,CTPN还提出了在文本检测中应加入RNN来进一步提升效果。为什么要用RNN来提升检测效果?文本具有很强的连续字符,其中连续的上下文信息对于做出可靠决策来说很重要。RNN常用于序列模型,比如事件序列,语言序列等等,那CTPN算法中,把一个完整的文本框拆分成多个小文本框集合,其实这也是一个序列模型,可以利用过去或未来的信息来学习和预测,所以同样可以使用RNN模型。而且,在CTPN中,用的还是BiLSTM(双向LSTM),因为一个小文本框,对于它的预测,不仅与其左边的小文本框有关系,而且还与其右边的小文本框有关系!这个解释就很有说服力了,如果仅仅根据一个文本框的信息区预测该框内含不含有文字其实是很草率的,应该多参考这个框的左边和右边的小框的信息后(尤其是与其紧挨着的框)再做预测准确率会大大提升。

图CTPN候选框如上图所示,如果单纯依靠1号框内的信息来直接预测1号框中否存在文字(或者说是不是文本的一部分),其实难度相当大,因为1号框只包含文字的很小一部分。但是如果把2号框和3号框的信息都用上,来预测1号框是否存在文字,那么就会有比较大的把握来预测1号框确实有文字。还可以看看为什么边缘的文本框的置信度会较中间的低呢?个人认为很大一部分原因就在于因为这些框都位于总文本的边缘,没有办法充分利用左右相邻序列的信息做预测(比如位于最左的文本框丢失了其右边的信息)。这就是双向LSTM的作用,把左右两个方向的序列信息都加入到学习的过程中去。CTPN借助了FasterRCNN中anchor回归机制,使得RPN能有效地用单一尺寸的滑动窗口来检测多尺寸的物体。当然CTPN根据文本检测的特点做了比较多的创新。比如RPN中anchor机制是直接回归预测物体的四个参数(x,y,w,h),但是CTPN采取之回归两个参数(y,h),即anchor的纵向偏移以及该anchor的文本框的高度,因为每个候选框的宽度w已经规定为16个像素,不需要再学习,而x坐标直接使用anchor的x坐标,也不用学习,所以CTPN的思路就是只学习y和h这两个参数来完成小候选框的检测!跟RPN相类似,CTPN中对于每个候选框都使用了K个不同的anchors(k在这里默认是10),但是与RPN不同的是,这里的anchors的width是固定的16个像素,而height的高度范围为11~273(每次对输入图像的height除以0.7,一共K个高度)。当然CTPN中还是保留了RPN大多数的思路,比如还是需要预测候选框的分数score(该候选框有文本和无文本的得分)。文本行构建很简单,通过将那些text/no-textscore>0.7的连续的textproposals相连接即可。文本行的构建如下。首先,为一个proposalBi定义一个邻居(Bj):Bj−>Bi,其中,Bj在水平距离上离Bi最近,该距离小于50pixels它们的垂直重叠(verticaloverlap)>0.7,另外,如果同时满足Bj−>Bi和Bi−>Bj,会将两个proposals被聚集成一个pair。接着,一个文本行会通过连续将具有相同proposal的pairs来进行连接来构建。

图CTPN网络架构首先CTPN的基础网络使用了VGG16用于特征提取,在VGG的最后一个卷积层CONV5,CTPN用了3×3的卷积核来对该featuremap做卷积,这个CVON5特征图的尺寸由输入图像来决定,而卷积时的步长却限定为16,感受野被固定为228个像素。卷积后的特征将送入BLSTM继续学习,最后接上一层全连接层FC输出要预测的参数:2K个纵向坐标y,2k个分数,k个x的水平偏移量。看到这里大家可能有个疑问,这个x的偏移到底是什么,为什么需要回归这个参数?如果需要X的参数,为什么不在候选框参数回归时直接预测成(x,y,h)三个参数呢,而要多此一举把该参数单独预测,这个X的作用作者提到这也是他们论文的一大亮点,称之为Side-refinement,可以理解为文本框边缘优化。回顾一下上面提到的一个问题,文本框检测中边缘部分的预测并不准确。那么改咋办,CTPN就是用这个X的偏移量来精修边缘问题。这个X是指文本框在水平方向的左边界和右边界,通过回归这个左边界和右边界参数进而可以使得对文本框的检测更为精准。在这里想举个例子说明一下回归这个x参数的重要性。通过观察下图,第一幅图张看到有很多小候选框,位于左边的候选框我标记为1、2、3、4号框,1号框和2号框为蓝色,表明得分不高就不把这两个框合并到大文本框内,对于3号框和4号框那就比较尴尬了,如果取3号框作为文本框的边缘框,那么显然左边边缘留白太多,精准度不够,但如果去掉3号框而使用4号框作为左边缘框,则有些字体区域没有检测出来,同样检测精度不足。这种情况其实非常容易出现,所以CTPN采取了Side-refinement思路进一步优化边缘位置的预测即引入回归X参数,X参数直接标定了完整文本框的左右边界,做到精确的边界预测。第二幅图中的红色框就是经过Side-refinement后的检测结果,可以看出检测准确率有了很大的提升。side-refinement确实可以进一步提升位置准确率,在SWT的Multi-Lingualdatasets上产生2%的效果提升。再看多几幅图,体验一下Side-refinement后的效果。

最后总结一下CTPN这个流行的文本检测框架的三个闪光点:

将文本检测任务转化为一连串小尺度文本框的检测;引入RNN提升文本检测效果;Side-refinement(边界优化)提升文本框边界预测精准度。

当然,CTPN也有一个很明显的缺点:对于非水平的文本的检测效果并不好。CTPN论文中给出的文本检测效果图都是文本位于水平方向的,显然CTPN并没有针对多方向的文本检测有深入的探讨。

4总结

通过查阅相关资料学习什么是OCR并且查阅了如何实现OCR文字识别中的文字检测,并且通过理论实现流程并且用代码对CPTN文字检测进行复现。通过对文字数据预处理并且进行文字字符分割,看似简单,做起来其实很难做得很好,我们也对此查阅了很多论文,发现其实很多论文也谈到了,汉字确实很那做到一个高正确率的分割,直至现在还没有一统江湖的解决方案。汉字切割的失败,就会直接导致了后面OCR识别的失败,这也是当前很多一些很厉害的OCR公司都没法把汉字做到100%识别的一个原因。所以这个问题就必须得到很好的解决。最后我们解决汉字切割的较好方法是,在OCR识别中再把它修正。并且通过文字分割后对数据进行数据增强生成了大量数据防止模型的过拟合。并且通过学习CPTN论文,学习到了思路上的创新,在检测水平上的文字置信度很高,但是也有一些弊端对于非水平的文本检测效果并不好。

5引用文献

[1]DetectingTextinNaturalImagewithConnectionistTextProposalNetwork.作者:ZhiTian;WeilinHuang;TongHe;PanHe;YuQiao0001[2]基于深度学习的汉字识别方法研究[D].任凤丽.东华大学.2021[3]基于深度学习的光学字符识别技术研究[D].冯亚南.南京邮电大学2020[4]基于卷积神经网络的手写数字识别研究与设计[D].刘辰雨.成都理工大学2018[5]基于CRNN的中文手写识别方法研究[J].石鑫,董宝良,王俊丰.信息技术.2019(11)

人工智能主要研究方向

人工智能主要分为自然语言处理(NLP)、计算机视觉(CV)、数据挖掘(DM)三个大方向

自然语言处理(NLP):它是计算机科学,人工智能,语言学关注计算机和人类(自然)语言之间的相互作用的领域,研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。主要分类包括机器翻译、文本分类、知识图谱、文本相似度计算、语音识别、情感计算、自动摘要、聊天机器人等等

计算机视觉(CV):一门研究如何使机器“看”的科学,使用计算机及相关设备对生物视觉的一种模拟,研究如何运用照相机和计算机来获取我们所需的,被拍摄对象的数据与信息的学问。主要分类包括行人检测、人脸识别、自动驾驶、图像分类、目标检测、智能安防等等

数据挖掘(DM):数据挖掘是指从大量的数据中通过算法搜索隐藏于其中信息的过程,主要分类有广告计算、推荐系统、用户画像、各类预测分类任务等等,DM多领域也需要用到NLP的知识。

例子:AlphaGo属于深度学习,深度学习可以应用于搜索技术,数据挖掘,机器学习,自然语言处理等很多领域

 

对计算机的态度作文,对人工智能的态度作文(2)

对人工智能的态度作文篇二

[摘要]人工智能(AnificialIntelligence)是相对人的自然智能而言,即用人工的方法和技术,模仿、延伸和扩展人的智能,实现某些“机器思维”。文章介绍了人工智能的应用研究领域,并集中介绍了人工智能在各个领域中的应用及所做出的贡献。最后提出应该继续人工智能理论的研究。

[关键词]人工智能;智能检索

中图分类号:TP39文献标识码:A文章编号:1006-0278(2013)05-158-01

一、人工智能概述

人工智能(AnificialIntelligence)是相对人的自然智能而言,即用人工的方法和技术,模仿、延伸和扩展人的智能,实现某些“机器思维”。作为一门学科,人工智能研究智能行为的计算模型,研制具有感知、推理、学习、联想、决策等思维活动的计算系统,解决需要人类专家才能处理的复杂问题。

二、人工智能的研究热点

随着不断提高的计算机速度、不断扩大的存储容量、不断降低的价格,很多在以前无法完成的工作在现在能够实现。当前,智能接口、数据挖掘、主体及多主体系统是人工智能研究的三个热点。

1.智能接口技术是研究如何使人们能够方便自然地与计算机交流。为了实现这一目标,要求计算机能够看懂文字、听懂语言,甚至进行翻译,这些功能的实现需要知识表示方法的研究。目前,智能接口技术已经取得了显著成果,文字识别、语音识别、机器翻译及自然语言理解等技术已经开始实用化。

2.数据挖掘就是从大量的、不完全的、随机的应用数据中提取隐含在其中的、又潜在有用的信息和知识的过程。数据挖掘和知识发现的研究已经形成了三大技术支柱:数据库、人工智能和数理统计。

3.主体系统具有愿望、能力、选择等心智状态的实体,具有一定的自主性。主体试图自治、独立完成任务,可以和环境交互,通过规划达到目标。多主体系统主要研究在逻辑上或物理上分离的多个主体之间进行协调智能行为,最终实现问题求解。

三、人工智能的应用领域

(一)解决实际问题

下棋程序是人工智能的一大贡献,在该程序中使用的一些技术,如前瞻性的向前看几步,把复杂的问题分解成较容易的小问题。

(二)逻辑推理和定理证明

逻辑推理要找到一些方法,把注意力集中在大型的数据库的相关事实上,在出现新信息时适当修正证明。定理寻找一个证明或者反证,不仅需要有根据假设进行演绎的能力,而且许多非形式的工作,包括医疗诊断和信息检索都可以和定理证明问题一样加以形式化。

(三)自然语言处理

自然语言处理是人工智能应用于实际领域的典型范例,经过多年努力,这一领域已获得令人瞩目的成绩。目前该领域的主要课题是:计算机系统如何以主题和对话情景为基础,注入大量常识,生成和理解自然语言。

(四)人工智能在企业管理中的应用

刘玉然在《谈谈人工智能在企业管理中的应用》一文中提到把人工智能应用于企业管理,我们要搞清人的智能和人工智能的关系,了解人工智能的外延和内涵,搞好智能化软件的开发。

(五)人工智能在电子技术方面的应用

沈显庆提出可以把人工智能和仿真技术相结合,以单片机硬件电路为专家系统的知识来源,建立单片机硬件配置专家系统,可以进行故障诊断,提高了纠错能力。

人工智能技术也被引入到了计算机网络领域,计算机网络安全管理的常用技术是防火墙技术,随着网络的迅速发展,各种入侵手段层出不穷,单凭传统防范手段已不能满足现实需要,把人工智能技术应用到网络安全管理领域,大大提高了它的安全性。马秀荣等在《简述人工智能技术在网络安全管理中的应用》一文中具体介绍了如何把人工智能技术应用于计算机网络安全管理,起到了很好的安全防范作用。

(六)人工智能在建筑行业的应用

人工智能在建筑规划、排水、建筑工程管理等行业得到了应用。如大连理工大学李守巨等运用LM神经网络对建筑结构结点损伤进行识别,通过测量位移来预测结点损伤。清华大学施汉昌等开发了一个用于诊断城市污水处理厂日常运行故障的专家系统,系统采用了正反向混合推理机制,并采用故障树的形式,将知识库中的知识组织形式向用户公开,便于用户对系统的维护,现已用于北京某污水处理厂。

四、结论

综上所述,人工智能在各个领域的应用相当广泛,考虑到人工智能良好的发展和应用前景,我们应当加大力度对人工智能理论进行研究,让其更好的为人类服务。

看了“对人工智能的态度作文”的人还看了:

人工智能发展与应用综述

人工智能发展与应用综述摘要

自人工智能的概念在1956年被提出以来,研发者们就不断研究,六十多年的发展,在理论研究以及应用领域都已取得了喜人的成果,人工智能在医疗,交通,教育,商业,信息安全等领域已经深入国民生活。本文对人工智能概念进行解读,并对人工智能发展与应用进行综述,探索人工智能发展轨迹,以更好认识人工智能,对行业技术与发展有更深刻的理解。

关键词:人工智能发展应用综述总结1、引言

人工智能的概念越来越深刻影响着人类的生活,如同蒸汽时代的蒸汽机,电气时代的发电机,信息时代的计算机,人工智能已经成为推动人类进入智能时代的决定性力量。当然,人工智能并不是凭空产生的,其发展具有一定的过程,在无数科学研究者,学者的辛勤努力下,人工智能研究的研究体系已经初见成果。人工智能的概念产生于欧美、日本等国家,并迅速风靡全球,可喜的是,根据清华大学发布的《人工智能发展研究报告2018》统计,我国已经成为全球人工智能投资融资规模最大的国家,我国人工智能在人脸识别,语音识别,安防监控,智能音箱,智能家居等人工智能应用领域处于国际前列。根据2017年,爱思唯尔文献数据库[1]统计结果,我国在人工智能领域发表的论文数量已居世界第一。当然,作为一项新兴事物,人工智能并非完美无缺,在许多方面仍然有较多的困难尚未攻克,本文对人工智能发展与应用进行综述[2、3],指导正确看待这一新兴事物,更好指导未来的技术发展。

2、人工智能以及核心概念

由于“智能”这一概念难以确切定义,图灵用:“机器能够思考吗?”这一问题代替。图灵提出通过对机器进行“图灵测试”,以判断它是否具有智能。“图灵测试”就是让机器当做人,与人进行对话,如果有30%的测试人相信此机器是人类,那么这台机器被认为具有智能。美国斯坦福大学人工智能研究中心尼尔逊教授给人工智能下了这样的定义:人工智能是关于知识的学科,是怎样表示知识以及怎样获得知识并使用知识的科学。从实用观点来看,人工智能是一本知识工程学:以知识为对象,研究知识的获取,知识的表示方法和知识的使用。目前学术界将人工智能分为强人工智能和弱人工智能,强人工智能就是机器具有自我意识,要求机器有知觉有意识。弱人工智能是指没有知觉意识的智能,机器按照事先写好的程序进行工作,并不拥有智能。

(1)、机器学习

机器学习[4]是人工智能的核心技术,是使机器拥有智能的主要途径,是指让机器模拟人的学习能力,以此来增强机器的性能。早在上个世纪图灵就给出了类似机器学习的想法,他设想让机器模仿儿童思维,使其接受正确的教育成长为一个成人的大脑。这种想法与当今学者研究的方向不谋而合。后来图灵与同事一起编写了程序去实践这种想法,机器能够做他们编写过的事情,除此之外,不会向人类一样在能力方面有更多的延伸。如何让机器自主的学习,在今天仍然是人工智能发展的难题。

(2)、人工神经网络

是受人脑神经元的启发,试图设计与人脑结构类似的网络结构,模拟大脑处理信息的的过程,以提高运算速度。作为人工神经网络的一类,卷积神经网络已经广泛用于大型图像处理中。虽然人工神经网络无法与人类大脑媲美,在模式识别,医疗,智能机器人等领域取得的成果有目共睹。

(3)、专家系统

是指依靠人类专家已有的知识建立的知识系统,是一种特定领域内大量知识与经验的程序系统。它应用人工智能技术,模拟人类专家求解问题的思维过程求解领域内的各种问题,其水平可以甚至超过人类专家的水平。目前专家系统开发最早应用最广泛的领域,多是医疗诊断,地质勘探,文化教育等领域。

3.发展历程

回顾人工智能的发展可以有以下四个时期:孕育,形成,知识运用,综合集成四个阶段。孕育期:一般认为人工智能的最早工作是Warre基本出发点。Mcculloch跟WalterPitts完成的。他们提出一套人工神经元模型,两名普林顿大学数学系的研究生在1951年建造了第一台神经元网络计算机。不少早期工作可以被当做人工智能,古希腊的亚里士多德创立的演绎法,三段论的至今仍然是演绎推理的基本出发点。形成期:人工智能诞生于1956年的一次历史性聚会。几位来自美国的数学,神经学,心理学,信息科学和计算机科学的杰出科学家齐聚一堂,由麦卡锡提出了“人工智能(AI)”这一概念。会议过后,各地的科学家、学者纷纷研究相关知识,“人工智能”这一学科以及相关研究如雨后春笋一般形成。1969年的国际人工智能联合会议标志着人工智能得到国际的认可。知识应用期:1977年费根鲍姆在第五届国际人工智能大会上提出了知识工程的概念。从此之后,各类专家系统得以发展,大量的商品化专家系统和智能系统纷纷推出。专家系统的发展,也是得人工智能的发展范围扩大到了人类各个领域,并产生了巨大的经济效益。但是专家系统发展过程中也存在很多缺陷,应用领域窄,缺乏常识性知识,知识获取困难,不能访问现存的数据库等问题被逐渐暴露出来,人工智能面临着考验。综合形成期,在专家系统方面,从20世纪80年代末开始逐步向多技术,多方法的综合集成与多领域的综合应用型发展。大型专家系统开始采用了人工智能的多种语言,多种知识表示方法,多种推理机制和多种在控制策略相结合的方式,人工智能的发展进入综合形成期。目前,人工智能技术正在向大型分布式人工智能,大型分布式多专家协同系统,并行推理,多种专家系统开发工具,大型分布式人工开发环境和分布式环境下的多智能协同系统等方向发展。但是从目前来看,无论是人工智能理论还是实践都不够成熟,人工智能研究仍然需要科研工作者长期摸索。

4、人工智能的应用(1)、虚拟各人助理

目前市面上的人工智能助理如:Siri,小娜等。个人助理能够帮助用户完成多项任务,多项服务,其推动力是人工智能技术。现阶段的人工助理一般具有基于上下文的对话能力,可以实现简单的人机对话,回答一些简单的问题。个人助理的应用包括语音识别,图像识别,深度学习等技术,其工作原理是“语音识别+云计算服务”。

(2)、自动驾驶

谷歌公司一直致力于自动驾驶汽车的研究,2012年4月。谷歌公司宣布自动驾驶汽车已经行驶20万公里,这一数据已经接近汽车的最大里程数。我国自动驾驶技术的研究同样取得振奋人心的成果。2017年由海梁科技与深圳巴士集团等联合打造的自动驾驶客运巴士,正式进行线路的信息采集和试运行。

(3)、智慧医疗

医疗一直是关系到国际民生的重要范畴。随着专家系统的不断发展完善,已有实例表明,人工智能可参与到医疗建设中。Watson[5]是IBM公司研发的采用认知计算系统的人工智能平台,watson肿瘤系统是其产品之一,可以作为辅助诊疗手段,与医院数据对接,实现病例数据的信息共享,还可以为临床医生在诊断过程中推荐诊疗方案,苏北人民医院2017年正式引入此系统,开启了智慧医疗的新时代。

5、我国人工智能发展趋势与展望

人工智能技术发展至今60多年,其概念已经逐渐清晰,在生物,医疗,交通等领域孕育出了突破性的成果,但是人工智能技术能否发展到人类的水平仍然不能给出确切的答案。目前人工智能面临的问题主要是:

(1)、体系结构受限

受限于冯诺依曼体系结构,目前人工智能系统在感知,认识方面无法突破瓶颈。这主要是由于传统的冯诺依曼体系结构采用的是存储程序的方法,程序是事先设定的,无法随着外界的改变而改变,这也是限制人工智能发展的关键。不过,我们有理由相信,在不久的未来能够克服这种制约。

(2)、社会问题困扰

如果人工智能真的发展到与人类智慧媲美的程度,又会引发一系列的问题。一方面心理学上,“恐怖谷”理论就是假如机器人接近人类的时候,我们会对其产生莫名的厌恶和惧怕。另一方面,人工智能带来的社会问题同样困扰着人类,以自动驾驶汽车为例,3-18美国自动驾驶车辆车祸致人死亡的事件给自动驾驶技术的发展带来不小的冲击,事故责任的划分成为一大难题。目前人工智能的发展,主要是在弱人工智能发展并取得显著的成果,在强人工智能的研究上仍在开展,存在很多问题,有很大的发展空间,从目前的一些前瞻性研究可以看出人工智能可能会向以下几个方面发展:模糊处理,并行化,神经网络和机器情感。人工智能的下一个突破可能是赋予计算机情感能力。

参考文献

[1]中央人民政府驻香港特别行政区联络办公室副主任中国科学院院士谭铁牛.人工智能的发展趋势及对策[N].中华工商时报,2019-02-25(003).[2]张妮,徐文尚,王文文.人工智能技术发展及应用研究综述[J].煤矿机械,2009,30(02):4-7.[3]杨俊龙,柳作栋.人工智能技术发展及应用综述[J].计算机产品与流通,2018(03):132-133.[4]陈彦淇.简析人工智能的发展与应用[J].科技传播,2019(04):162-163+170.[5]曹敦煜.人工智能在心脏疾病诊疗中的应用[J].科技传播,2019(04):141-142.

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇