人工智能应用论文(通用2篇)
目前,人工智能的应用领域主要有几个方面,下面是白话文整理的人工智能应用论文(通用2篇),您的肯定与分享是对小编最大的鼓励。
人工智能应用论文篇一人工智能的应用研究
一、人工智能的发展过程
人工智能(AI.ArtificialIntelligence)经历了三次飞跃阶段:实现问题求解是第一次,代替人进行部分逻辑推理工作的完成,如机器定理证明和专家系统;智能系统能够和环境交互是第二次,从运行的环境中对信息进行获取,代替人进行包括不确定性在内的部分思维工作的完成,通过自身的动作,对环境施加影响,并适应环境的变化,如智能机器人;第三次是智能系统,具有类人的认知和思维能力,能够发现新的知识,去完成面临的任务,如基于数据挖掘的系统。
二、人工智能的研究热点
AI研究出现了新的高潮,有两个方面的表现,一方面在于人工智能理论方面有了新的进展,另一方面是由于突飞猛进发展的计算机硬件。随着不断提高的计算机速度、不断扩大的存储容量、不断降低的价格,以及不断发展的网络,很多在以前无法完成的工作在现在都能够实现。当前,智能接口、数据挖掘、主体及多主体系统是人工智能研究的三个热点。
(一)智能接口技术是研究如何使人们能够方便自然地与计算机交流。为了实现这一目标,要求计算机能够看懂文字、听懂语言、说话表达,甚至能够进行不同语言之间的翻译,而这些功能的实现又依赖于知识表示方法的研究。因此,智能接口技术的研究既有巨大的应用价值,又有基础的理论意义。目前,智能接口技术已经取得了显著成果,文字识别、语音识别、语音合成、图像识别、机器翻译及自然语言理解等技术已经开始实用化。
(二)数据挖掘就是从大量的、不完全的、有噪声的、模糊的、随机的实际应用数据中提取隐含在其中的、人们事先不知道的、但是又潜在有用的信息和知识的过程。数据挖掘和知识发现的研究目前已经形成了三根强大的技术支柱:数据库、人工智能和数理统计。
(三)主体系统是具有信念、愿望、意图、能力、选择、承诺等心智状态的实体,比对象的粒度更大,智能性更高,而且具有一定的自主性。主体试图自治、独立地完成任务,而且可以和环境交互,与其他主体通信,通过规划达到目标。多主体系统主要研究在逻辑上或物理上分离的多个主体之间进行协调智能行为,最终实现问题求解。
三、人工智能的应用领域
今天,AI能力更倾向于应用到人类或其他动物智能的某一或某几方面,并用自动化替代,有时候也用于对其进行模拟。不过在有些情况下,这些在高性能计算机调度之下的智能行为远远比人类的行为更为强大。
(一)路径查找和路径规划。在最小代价路径规划和路径查找系统中,可以使用专门的技术——它们中有一些非常灵巧微妙,另一些则仅仅是用蛮力解决——来模拟对理解的直觉迅速转换或者对普通人大脑生成过程的识别,结果有时非常令人惊讶!路径查找就是路径规划问题的一种变体。
为了找到最佳路线,我们需要计算通过每一个往返路线的时间开销。时间就是金钱;所以,我们更倾向于关注最小代价路线。这也适用于飞机航线的制定,它们需要在不同的城市中逗留或更换航班等等。
(二)逻辑和不确定性。计算机编程就像是使用逻辑砖块建造一栋房子一样。事实上,人工智能编程通常被认为有两种逻辑形式——命题逻辑和形式逻辑——的一种特殊混合应用,也被认为是一种谓词演算。更进一步说,编程语言中,我们更是采用了一个命题逻辑更加专门化的形式:布尔逻辑或者布尔代数。
命题逻辑应用于具有真和假两种状态的断言以及命题领域之中。古典命题逻辑或者布尔逻辑处理的都
只有两种状态:或者为真,或者为假。
对象之间联系以及这些联系的真假值(布尔形式)在内的命题逻辑的一种强化延伸就是谓词演算(和中学学的数学计算毫无关系)所包含的。
但是当我们在逻辑中使用这些谓词的时候,就算是最复杂的逻辑语句,我们最终获得的也只是一个黑白分明的世界:一个事物不是真的就是假的。如果一个事物不是真的也不是假的,那么它一定是不存在的事物。否则,它必然两者居其一。
(三)自然语言处理。在AI应用中最重要的一部分就是自然语言处理。但是,现实却是,自然语言处理系统并不能像人类那样能很好地分析这些并没有太强逻辑结构地说出的以及写出的词语的含义。不过这样有限的功能对于残障人士、翻译系统、词语处理拼写和语法检查器来说仍然是非常有用的。
(四)神经网络。一种信息处理结构就是神经网络,对诸如大脑之类的生物学神经系统进行尝试模仿来进行单纯数据的转换成为信息,就是它的原理。神经网络由很多相互联系的处理小元素:神经节点,功能相当于一个大脑神经细胞和神经元(synapse)组成,它们相互交互,共同解决具体问题。神经网络上的元素将输入模式转换成为输出模式,而这些输出模式又同时可以成为其他神经网络的输入模式。神经网络通过实例学习,这一点和人类的做法一样。神经网络需要设置为适用于某些具体应用中,比如通过学习过程识别图像。而对于生命系统本身,我们对学习的过程涉及到神经细胞之间的突触联系的调整这一说法保留质疑。
四、结语
当前,大部分AI能力的研究方向是研究如何完整地模拟一个智能过程,而不是对器官所使用的每一个低级步骤进行再现。一个极端显著的示例就是利用数据库和搜索软件获取信息的专家系统。数据库向大脑提供基本没有任何关联的数据,同时这些数据的传输和其在大脑中的存储形式也毫不相同(科学家们很清楚这一点)。但是很多专家系统还是能够相当好地担当起诸如像内科医生这样的专业角色。当然它们也仅仅被应用于它们非常熟悉的领域。
人工智能应用论文篇二人工智能的应用与发展研究
摘要:人工智能是用人工的方法和技术模仿、延伸和扩展人的智能,实现某些“机器思维”。本文在阐述人工智能定义的基础上,详细分析了人工智能的应用领域和当前的发展状况,深入探讨了人工智能未来的发展。
关键词:人工智能;应用;问题;发展
当前,人工智能这个术语已被用作“研究如何在机器上实现人类智能”这门学科的名称。从这个意义上说,可把它定义为:是一门研究如何构造智能机器或智能系统,使它能模拟、延伸、扩展人类智能的学科。具体来说,人工智能就是研究如何使机器具有能听、会说、能看、会写、能思维、会学习、能适应环境变化、能解决各种实际问题的一门学科。
一、人工智能的应用现状
大部分学科都有各自的研究领域,每个领域都有其独有的研究课题和研究技术。在人工智能中,这样的分支包含自动定理证明、问题求解、自然语言处理、人工智能方法、程序语言和智能数据检索系统及自动程序设计等等。在过去的30年中,已经建立了一些具有人工智能的微机软件系统。
目前,人工智能的应用领域主要有以下几个方面:一是问题求解。到目前为止,人工智能程序能知道如何思考他们解决的问题;二是逻辑推理与定理证明。逻辑推理是人工智能研究中最持久的领域之一。定理寻找一个证明或反证,不仅需要有根据假设进行演绎的能力,而且许多非形式的工作,在人工智能方法的研究中定理证明是一个极其重要的论题。三是自然语言处理。自然语言的处理是人工智能技术应用与实际领域的典范,目前该领域的主要课题是:计算机系统如何以主题和对话情景为基础,注重大量的尝试一一世界知识和期望作用,生成和理解自然语言。四是智能信息检索技术。信息获取和净精华技术已成为当代计算机科学与技术研究中迫切需要研究的课题,将人工智能技术应用于这一领域是人工智能走向广泛实际应用的契机与突破口。五是专家系统。专家系统是目前人工智能中最活跃、最有成效的研究领域,它是一种具有特定领域内大量知识与经验的程序系统。
二、人工智能的发展瓶颈
人工智能(AI)学科自1956年诞生至今已走过50多个年头,就研究解释和模拟人类智能、智能行为及其规律这一总目标来说,已经迈出了可喜的一步,某些领域已取得了相当的进展。但从整个发展的过程来看,人工智能发展曲折,而且还面临不少难题,主要有以下几个方面:
(一)研究方法不足
人工智能发展到今天,已经取得了长足进步,但人类对人脑结构和工作模式的认识还不全面、不深入,这也就决定了现阶段神经网络模型无法真正实现对人脑的模拟;硅基元素组成的电子器件与碳基[www.baihuawen.cn]元素组成的神经元组织在物理及化学属性上有很大的不同,适合于人脑的工作模式,但并不适应神经网络计算机;根据马克思主义实践论观点,人脑是人类长期劳动实践的产物,仅靠在实验室里电子器件以及线路的排列组合是不可就能实现模拟的。
(二)机器翻译存在困难
目前机器翻译所面临的主要问题仍然是构成句子的单词和歧义性问题。歧义性问题一直是自然语言理解中的一大难关,要消除歧义性就要对原文的每一个句子及其上下文进行分析理解,寻找导致歧义的词和词组在上下文中的准确意义。然而,计算机却往往孤立地将句子作为理解单位。另外,即使对原文有了一定的理解,理解的意义如何有效地在计算机里表示出来也存在问题。目前的NLU系统几乎不能随着时间的增长而增强理解力,系统的理解大都局限于表层上,没有深层的推敲,没有学习,没有记忆,更没有归纳。导致这种结果的原因是计算机本身结构和研究方法的问题。现在NLU的研究方法很不成熟,大多数研究局限在语言这一单独的领域,而没有对人们是如何理解语言这个问题做深入有效的探讨。
(三)模式识别存在困惑
虽然使用计算机进行模式识别的研究与开发已取得大量成果,有的已成为产品投入实际应用,但是它的理论和方法与人的感官识别机制是全然不同的。人的识别手段、形象思维能力,是任何最先进的计算
机识别系统望尘莫及的,另一方面,在现实世界中,生活并不是一项结构严密的任务,一般家畜都能轻而易举地对付,但机器不会,这并不是说它们永远不会,而是说目前不会。
三、人工智能发展的思考
人工智能具有十分巨大的发展潜力,当前人工智能虽然经过多年研究已取得了一定成绩,但这也仅仅是刚刚开始而已,继续研究下去在很多方面都会有重大的突破。尤其是在科学技术日新月异的今天,各种新科技的出现层出不穷,人工智能将来的发展将不可限量:一是构建智能计算机,代替人类从事脑力劳动。将人类从繁杂的脑力劳动中解放出来,从而极大的提高运算速度和效率;二是机器学习。科学家一直在致力于研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能。虽然在过去的很长的一段时间内都没有取得十分显著的成果,但许多新的学习方法相继问世,并且已经有了实际的应用,这充分说明在这方面的研究已经有了很大的进步。二是自然语言处理。它是计算机科学领域与人工智能领域中的一个重要方向。在经过人工智能研究人员的艰苦努力之后,在该领域中已取得了大量令人瞩目的理论与实际应用成果,许多产品已经进入了众多领域。智能信息检索技术在Internet技术的影响下,近年来发展势头十分迅猛,而且已经成为了人工智能的一个独立研究分支。
人工智能始终处于计算机这门学科的前沿,其研究的理论和成果在很大程度上将控制科学与技术,决定计算机技术的发展方向。现如今,已经有许多人工智能的研究成果进入到人们的日常生活中。将来,人工智能技术的发展也必将会给人们的工作、生活和教育等带来长远深刻的影响。
人工智能在计算机领域的应用论文,人工智能应用领域论文 关于人工智能领域的大学论文
近年来,随着信息技术以及计算机技术的不断发展,人工智能在计算机中的应用也随之加深,其被广泛应用于计算机的各个领域以下是小编精心整理的关于人工智能领域的大学论文的相关资料,希望对你有帮助!
关于人工智能领域的大学论文篇一
计算机在人工智能中的应用研究
摘要:近年来,随着信息技术以及计算机技术的不断发展,人工智能在计算机中的应用也随之加深,其被广泛应用于计算机的各个领域。本文针对计算机在人工智能中的应用进行研究,阐述了人工智能的理论概念,分析当前其应用于人工智能所存在的问题,并介绍人工智能在部分领域中的应用。
关键词:计算机;人工智能;应用研究
一、前言
人工智能又称机器智能,来自于1956年的Dartmouth学会,在这学会上人们最初提出了“人工智能”这一词。人工智能作为一门综合性的学科,其是在计算机科学、信息论、心理学、神经生理学以及语言学等多种学科的互相渗透下发展而成。在计算机的应用系统方面,人工智能是专门研究如何制造智能系统或智能机器来模仿人类进行智能活动的能力,从而延伸人们的科学化智能。人工智能是一门富有挑战性的科学,从事这项工作的人必须懂得计算机知识、心理学与哲学。人工智能是处于思维科学的技术应用层次,是其应用分支之一。数学常被认为是多种学科的基础科学,数学也进入语言及思维领域,人工智能学科须借用数学工具。数学在标准逻辑及模糊数学等范围发挥作用,其进入人工智能学科,两者将互相促进且快速发展。
二、人工智能应用于计算机中存在的问题
(一)计算机语言理解的弱点。当前,计算机尚未能确切的理解语言的复杂性。然而,正处于初步研制阶段的计算机语言翻译器,对于算法上的规范句子,已能显示出极高
人工智能应用领域的研究与展望
引言
20世纪的科技成就中,人工智能占据着重要的位置,它的研发使用是将智能机器人的技术、信息化技术、自动化技术和关于人类自身智能探索与研究融为一体的必然结果。随着人工智能的系列化研究与发展,如今,人工智能已经被广泛地应用于很多领域。但是关于人工智能的应用领域的综述并不多,本文就人工智能在不同领域应用发展趋势进行展望。
1人工智能的由来
人工智能是研究、开发模拟应用、延伸和拓展人的智能领域的理论、方法、技术以及应用系统的一门新的学科。相比于其他学科,人工智能的研究和发展历史是很短暂的,但是它的研究发展与应用却为人类生活带来了翻天覆地的变化,是人类发展历史的一个里程碑,将人类从繁重的体力劳动和脑力劳动中解放出来,同时帮助人类探索拓展了更多的未知领域。
1956年,麦卡赛和明斯基等科学家就提出了“人工智能”的理念,认为在未来机器将会以其独有的人工智能特点更好地服务于人类,代替人类来完成许多高难度、高强度和高危险系数类的工作。这一理念的提出引来了许多优秀科学家的青睐,随即对此展开了更深入的研究、探索、发展和应用[1]。
在计算机的应用普及之前,几乎没有什么机器设备可以分担人类的脑力劳动,特别是依据人脑的思维去对数据进行收集、处理、运算、判定、存储、积累、分析和选择决断。当计算机有了一定程度的发展和应用之后,能够代替人脑工作的软件才逐步被开发并应用到研究和生活中。由早期的各种复杂数据分析运算,一维、二维、三维和立体的测绘,继而发明并应用二维码的识别、无人机作业、月球车等各种模拟人类思维模式的应用,到后来人工智能云处理、对比、处理和建议等人脑无法准确、无误且快速处理大数据的运用。如今,人工智能的应用已经遍布人类生活的许多领域。
2人工智能的应用领域
现在人工智能在计算机领域的应用比较广泛,在其他领域的发展应用也是频见报道。随着人工智能“深、广、精”的研究、发展与应用,不久,必将迎来在更多领域的应用,未来的人工智能将更加智能,更加的人性化,更像个“人”一样进入人类生活,为人类社会的发展服务。
2.1人工智能在工业领域的应用
人工智能的应用在工业发展方面起着举足轻重的作用,它具有效率高、稳定可靠、重复精度好,可承担劳动强度大、危险系数高的作业等优势,已被广泛应用到了工业生产领域,如机器人焊接、机器人搬运、机器人装配、机器热打磨抛光和机器人喷涂电镀等。2018年,林远长等人研究得到焊接机器人在每米长度方向上焊接轨迹跟踪仿真误差为0.18mm,而实际跟踪误差为0.2mm,由此验证利用人工智能仿真误差与实际误差基本一致,完全满足工业生产需求[2]。赵猛研发发动机挠性飞轮盘螺纹装配工业机器人项目[3],提高装配的自动化和柔性化程度,保证装配质量和生产效率。用人工智能的机器人来代替普通工人去完成许多对人体有不良影响及人体生理条件限制而不能承受的工作,是20世纪工业发展的一个质的飞跃,是工业发展史的一个标志性的里程碑。
2.2人工智能在金融领域的应用
近来,随着人工智能的开发及应用,互联网金融更是取得了极其辉煌迅猛的发展。二维码支付、手机银行、网络借贷、P2P平台、淘宝、京东等逐渐成为人们茶余饭后议论的热点词汇。通过大数据库、云计算、计算机网络应用、区块数据链等最新IT技术,即可获取大量、精确的信息,更加个性化、定向化的风险定位模型,更科学、严谨的投资决策过程,更透明、公正的信用中介角色等,从而能大大地提高金融业务效率和服务水平,特别是一些技术应用,如大数据征信、供需信息、供应链金融等[4]。
2.3人工智能在信息安全领域的应用
数字密码安保模式伴随着互联网技术的不断发展,其弊端也逐步显露,一方面容易被破解,导致信息泄露,另一方面,对于越来越多的信息安保需求,对人脑的记忆力要求也越来越高。由此产生的各种困扰也越来越多,如忘记密码后,自动取款机无法取现、打不开文件、登录不了系统等问题层出不穷,因此信息安全问题越来越被人们所关注。但当人工智能和生物识别技术结合并深入发展之后,信息安全领域得到了一个全新的发展和提高。指纹解锁速度可达0.2s,支持多个指纹同时录入,且被广泛应用;iPhoneX的人脸识别解锁,支付宝的刷脸登录和考勤机器上的刷脸打卡等正渐渐步入人们的日常生活之中;人的虹膜具有惟一性,为实现信息认证、保障信息安全提供了理论基础。现实中也已经有电子厂商将这一技术运用到了实际产品当中,比如三星S系列的手机,就配备了虹膜识别技术,但是虹膜识别目前对环境的要求比较高,尤其是在暗光环境下识别效果还有待提升。相比于指纹识别,虹膜识别在完成产业化的道路上还有很长的路要走[5]。
2.4人工智能在医疗领域的应用
医疗领域的人工智能应用更加普遍,它正在成为改善人们身心健康的主力军,可为病人提供就诊前健康状况初步分析和评估、协同医师处理病人信息和改善服务质量、在医院精准地指导病人就医、节约医疗资源、缓解就医难的紧张局面等。医学领域,精准是非常重要的,因为任何偏差或者误判都会危及人体的健康乃至生命。2015年,杨宇面对心脏手术医疗机器人的异构式主从控制研究,充分运用人工智能[6],简化了手术操作,降低了操作风险。人工智能芯片能够存入大量的信息,并对这些信息进行高速地运算处理和判断,做出最准确的决策,这是目前人脑没有办法做到的[7]。人工智
能还可以根据患者的实际情况,收集所需要的数据,结合过去的数据进行计算和决策,从而得出最有效的治疗方案,以此减少医务人员的脑力劳动强度,合理利用医疗资源[8]。
3人工智能应用领域的展望
随着人工智能在数字理论技术、自动化控制、机器人应用等方面不断地研究发展,将来,机器必定会无限地接近人的各种行为,通过智能“视觉”“听觉”“触觉”“味觉”“嗅觉”来接收信息,传递信息;通过“电脑”来处理信息,选择和决策;通过智能输出端的“说”和“做”来传递信息发布需求和指令;通过智能肢体“行为”来响应与实施。在人类的日常工作、学习、医疗、安全和可持续发展等领域,人工智能都将尽最大的可能去为人类提供服务。然而无论人工智能发展到哪一步,依然无法在思维、精神、感触和情绪方面全盘取代人脑,仍旧不够人性化和智能化,只能跟随人类对自身智能的开发和研究而尽量接近人类[9]。与此同时,随着大数据类的人工智能的研究与开发,信息安全问题将会凸显,并且成为科学家以后很长一段时间的困扰和研究热点[10]。
4结语
总之,人工智能技术的发展是日新月异的,为将来在更多领域、更广泛的应用人工智能技术提供了更多的可能,但是,这一切都是基于人类对自身智能的充分了解和掌握。为此,还需要很多的知识和技术积累,针对人工智能更大量的应用,科研人员还需要做更多的工作。一方面是开发更多的未知智能,另一方面是完美地将人的智能转化成机器人的智能来为人类生存与发展服务。
【人工智能—课程论文 6000字】范文118
系统工程论文浅谈层次分析法的优缺点4600字电气安装技师论文电气安装工程论文:变电电气设备安装调试与运行维护技术分析2800字加强村级事务规范化,推行“阳光村务”工程论文2000字自动化电气工程论文2200字工程管理毕业论文范例25200字项目管理毕业论文范本19700字xxx大学
人工智能概论
课程论文
学院核自院
专业机械工程及自动化
班级机械x班
姓名xxx
学号xxx
导师朱x
课题人工智能原理与应用
201x年1x月2x日
人工智能的原理与应用
摘要:人工智能(AI)一直都处于计算机技术的最前沿,长久以来,人工智能对于普通人来说是那样的可望而不可及,然而它却吸引了无数研究人员为之奉献才智,从美国的麻省理工学院(MIT)、卡内基-梅隆大学(CMU)到IBM公司,再到日本的本田公司、SONY公司以及国内的清华大学、中科院等科研院所,全世界的实验室都在进行着AI技术的实验。不久前,著名导演斯蒂文斯皮尔伯格还将这一主题搬上了银幕,科幻片《人工智能》(A.I.)对许多人的头脑又一次产生了震动,引起了一些人士了解并探索人工智能领域的兴趣。
关键词:人工智能;专家系统;模式识别
引言:
人工智能的发展已达到很高水平,电子计算机将更接近大脑的功能了,虽然计算机解决问题的能力从技术角度看目前还有很大局限性,计算机万能论者的理论依据也是有问题的。计算机暂时不能代替人我相信他预见的会成为现实,目前也有了很多技术突破,这就是人类-机器的结合体,他预见这是人类进化史上的一个飞跃。在这样一个结合体形式下,肯定超出目前的人的智能和人工智能,这个结合体中,人类的大脑将植入能和机器直接沟通的芯片,这个芯片是人机的桥梁,而人类-机器结合体将发挥出人与机器的各自优势。
一、什么是人工智能由于人工智能是一个边缘学科,是哲学、数学、电子工程、计算机科学、心理学等众多学科的混血儿。它的研究队伍由未自不同领域的学者组成,各自从事着自己感兴趣的工作,他们对人工智能是什么有不同的认识。
如果仅从技术的角度来看,人工智能要解决的问题是如何使电脑表现智能化,使电脑能支灵活方效地为人类服务。只要电脑能够表现出与人类相似的智能行为、就算是达到了目的,而不在乎在这过程中电脑是依靠某种算法还是真正理解了,这样,人工智能就是计算机科学中涉及研究、设计和应用智能机器的—个分支,人工智能的目标就是研究怎样用电脑来模仿和执行人脑的某些智力功能,并开发相关的技术产品,建立有关的理论。
除了上述的观点以外,人工智能领域中的心理学家、语言学家倾向于将重点放在用电脑去再现人脑思维的内部状态上.也就是要使电脑程产真正理解它所他的事情,就好保人脑一样去“思考问题”。
由于大家研究的内容与侧重点各不相同,因此对人工智能的认识也有一定的差异。但是,他们的认识又相互补充、相辅相成、共同构成了人工智能丰富多彩的研究层次与多样化的研究队伍。
(一)人工智能的理论于实践人工智能不仅仅是一个工程科目,同样也是一个科研主题,研究人员创立人工智能理论(人工智能程序能够做什么)并用数学分析和实验来验证。理论是可以通过数学抽象和定理证明来分析验证的,也可以通过开发程序、运行试验、分析结果进行经验性研究,这很像心理学家对接受实验者所做的实验,但复杂人工智能系统的行为是很难预测的。
人工智能的应用范围非常广泛。人们已经创建了人工智能程序,用于通过预测股市趋势来产生投资策略,诊断病人并给出治疗建议,以及控制工厂中的装配机器人。火星探测机器人的控制就采用了人工智能系统。
(二)人工智能概念著名的美国斯坦福大学人工智能研究中心尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”而另一个美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”这些说法反映了人工智能学科的基本思想和基本内容。即人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。
人工智能(ArtificialIntelligence,简称AI)是计算机学科的一个分支,二十世纪七十年代以来被称为世界三大尖端技术之一(空间技术、能源技术、人工智能)。也被认为是二十一世纪(基因工程、纳米科学、人工智能)三大尖端技术之一。这是因为近三十年来它获得了迅速的发展,在很多学科领域都获得了广泛应用,并取得了丰硕的成果,人工智能已逐步成为一个独立的分支,无论在理论和实践上都已自成一个系统。
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。
(三)人工智能的基础人类是通过自然语言来表达思想、知识、学习、交流等,为实现AI用机器模拟人的智能行为,显然,必须有适合于AI的知识获取、知识表示、知识推理的语言,编写相应的智能程序,以构成AI系统,即知识信息处理系统。自AI发展以来,由于AI应用领域的广泛性,已有十几种语言被应用,它们都是根据适用于所研究问题领域知识描述和处理而提出的。
二、人工智能原理(一)介绍人工智能的实现技术人工智能是实现具有智能的机器,尤其是具有智能的计算机程序的科学和工程技术。人工智能与用计算机理解人的智力的目标有一些关系,但它并不一定要使用生物学上的方法。
(二)人工智能的原理人工智能的科学研究要研究人的智慧的内部结构,相当于研究心理学的原理,这是一般人不大会去做的。大部分的人工智能研究集中在后者——工程实现上。知识:人的智能活动本质上就是获得和运用知识。知识是智能的基础,为了实现人工智能使机器具有智能就必须使它具有知识。表达:要采用适当的手段表达人的知识,然后才能存储到机器中去,这就是用知识表达要解决的问题。对知识进行表达就是把知识表示成便于计算机存储和利用的某种数据结构,知识表达方法又称为知识表示技术,其表示形式称为知识表示模式。
三、人工智能应用(一)人工智能的应用范围人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能的发展历史是和计算机科学与技术的发展史联系在一起的,人工智能学科研究的主要内容包括:知识表示、自动推理和搜索方法、机器学习和知识获取、知识处理系统、自然语言理解、计算机视觉、智能机器人、自动程序设计等方面。
(二)人工智能中的机器翻译机器翻译是利用计算机把一种自然语言转变成另一种自然语言的过程,用以完成这一过程的软件系统叫做机器翻译系统。虽然至今还没有一个实用、全面、高质量的自动翻译系统出现,不过也取得了很大的进展,特别是作为人们的辅助翻译工具,机器翻译已经得到大多数人的认可。
目前,国内的机器翻译软件不下百种,根据这些软件的翻译特点,大致可以分为三大类:词典翻译类、汉化翻译类和专业翻译类。在目前的情况下,计算机辅助翻译应该是一个比较好的实际选择。事实上,在很多领域中,计算机辅助人类工作的方式已经得到了广泛的应用,例如CAD软件。
机器翻译研究归根结底是一个知识处理问题,它涉及到有关语言内的知识、语言间的知识、以及语言外的世界知识,其中包括常识和相关领域的专门知识。随着因特网的普及与发展,机器翻译的应用前景十分广阔。作为人类探索自己智能和操作知识的机制的窗口,机器翻译的研究与应用将更加诱人。
(三)人工智能中的专家系统专家系统是一种模拟人类专家解决领域问题的计算机程序系统。专家系统内部含有大量的某个领域的专家水平的知识与经验,能够运用人类专家的知识和解决问题的方法进行推理和判断,模拟人类专家的决策过程,来解决该领域的复杂问题。
为了实现专家系统,必须要存储有该专门领域中经过事先总结、分析并按某种模式表示的专家知识(组成知识库),以及拥有类似于领域专家解决实际问题的推理机制(构成推理机)。
开发专家系统的关键是表示和运用专家知识,即来自领域专家的己被证明对解决有关领域内的典型问题有用的事实和过程。目前,专家系统主要采用基于规则的知识表示和推理技术。由于领域的知识更多是不精确或不确定的,因此,不确定的知识表示与知识推理是专家系统开发与研究的重要课题。
(四)人工智能模式识别模式识别就是通过计算机用数学技术方法来研究模式的自动处理和判读。这里,我们把环境与客体统称为“模式”,随着计算机技术的发展,人类有可能研究复杂的信息处理过程。用计算机实现模式(文字、声音、人物、物体等)的自动识别,是开发智能机器的一个最关键的突破口,也为人类认识自身智能提供线索。信息处理过程的一个重要形式是生命体对环境及客体的识别。对人类来说,特别重要的是对光学信息(通过视觉器官来获得)和声学信息(通过听觉器官来获得)的识别。这是模式识别的两个重要方面。市场上可见到的代表性产品有光学字符识别系统(OCR)、语音识别系统等。计算机识别的显著特点是速度快、准确性和效率高。识别过程与人类的学习过程相似。
一个综合应用的例子,一汽集团公司与国防科技大学最近合作研制成功“红旗轿车自主驾驶系统”(即无人驾驶系统),它标志着我国研制高速智能汽车的能力已达到当今世界先进水平。汽车自主驾驶技术是集模式识别、智能控制、计算机学和汽车操纵动力学等多门学科于一体的综合性技术,代表着一个国家控制技术的水平。红旗车自主驾驶系统采用计算机视觉导航方式,并采用仿人控制,实现了对红旗车的操纵控制。首先,摄像机将车前方的道路和车辆行驶情况输入到图像处理和图像识别系统。该系统识别出道路状况、前方车辆的相对距离和相对车速。接着,路径规划系统根据这些信息规划出一条合适路径,即决定如何开车。然后,路径跟踪系统根据需跟踪的路径,结合车辆行驶状态参数和车辆驾驶动力学约束,形成控制命令,控制方向盘和油门开启机构产生相应动作,使汽车按照规划好的路径前进,即按自主驾驶系统的规划路径前进。
四、发展方向能够造出这样的具有人类智能的机器,是科学家们一直的理想。人工智能这个科学就是研究和模拟人类的思维,最终做出一台能够像人类一样思考的机器。人工智能科学中有一个很著名的标准,叫做“图灵测试”。用这个标准能够非常简单准确地测定一台机器是否具有人一样的智能。这个测试大概就是通过几个人与一台待测试的机器之间进行对话。当然人与人之间是不能互相看到对方的,人也不能看到哪个是人哪个是机器,之间只有通过对话来交流。然后人与机器之间互相进行对话,对话内容主要是随便问一些问题。到最后,如果对话的人,还分不清与他对话的几个人与机器当中,哪个是机器,哪个是人,那么就可以断定这台机器具备人一样的智能。
然而,直到今天,还没有任何一台机器可以通过这个测试。而且,离通过测试的差距还非常之大。这个测试对于机器,真正的困难就难在要像人一样回答问题。例如随便问一个问题:“12乘以7再加821等于多少”。这个问题就很容易让机器“中计”。因为对于机器来说,这种数学计算只需要花一秒不到的时间就能得出正确的结果。但是如果你发现对方可以这样快且准确地得出结果,你会相信他是人么?人毕竟有人特有的思维水平,人有感情,有各种各样的性格,这个就很难在机器上实现。
诚然,能够做出这样的机器,的确是人工智能的目标。不过人工智能的研究单纯就是为了这个么?我个人认为,能够做出像人一样聪明的机器是件好事,不过如果要求机器做到人的某些不好的特性,例如,懒惰、贪婪、罪恶等等,就不必了,做了也是自掘坟墓。人工智能应该可以为人类而服务,能够帮助人解决各种问题。
其实做到像人类一样思考的机器,这个只是人工智能科学的其中一个部分,绝不是全部。通过人工智能的研究,领略到智能科学的真谛,解决各种科学难题,促进其它学科的发展,这个才算人工智能的精华!
例如,人工智能的子学科专家系统,就曾帮助过医学、采矿等等多个学科,帮助这些学科解决了很多难题。这个时候,人工智能就在某一领域表现出比一般人更加卓越的能力。
据我所知,人工智能还有许多十分有趣的子学科,例如神经网络、进化计算等等。这些科学也是以模仿人类的思维为初衷发展起来。但是这些科学在发展过程中,却收获了很多其它的成果。神经网络、进化计算都曾经解决过许多数学上的难题,它们与专家系统一样,为其它各个学科起了很大的促进作用。神经网络还帮助过人类解决指纹识别、面相识别、汉字识别等的难题。
五、结语人工智能研究将是21世纪早期逻辑学发展的主要动力源泉。人工智能研究必须建立在归纳逻辑基础之上,从而达到多领域交叉合作来共同促进人工智能研究的广泛而深远的发展。我们现在所涉及的基于逻辑归纳的人工智能以及机器学习和归纳学习的系统研究还处于初级阶段。正如有人所说,在未来的计算机归纳学习或发现的研究中,将归纳逻辑的某些理论、方法或系统与机器学习、不确定性推理、神经网络中对归纳逻辑的研究适当“嫁接”起来,以改进并逐步革新现有的归纳学习系统,促使机器学习中归纳学习的基础理论形成,并进一步从事归纳学习的基础理论与系统的研究和开发,这是人工智能科学研究中的一项重大任务。
参考文献[1]毕家祥,人工智能模型于智能系统
[2]王士同,人工智能教程.2006年8月
[3]邢传鼎,人工智能原理及应用.2005年02月
[4][美]ThomasDeanJamesAllenYiannisAloimonos.2004年06月
[5]侯广坤,人工智能概论.1993年05月
[6][英国]C.J.哈里斯,人工智能的应用.1992年02月
[7]马宪民,人工智能的原理与方法.2002年
[8]张玉志,人工智能与社会进步.1990年03月
[9]孙雅明,人工智能基础.1995年05月
[10]米汉著,人工智能程序设计(第二版)
[11]傅京孙,人工智能及其应用.1987年09月
[12]胡俊,游戏开发中的人工智能研究于应用
[13]王万森,人工智能的原理及应用.2000年09月
[14]任巍,人工智能技术在计算机游戏软件中的应用.200602
[15]山东工业大学自动化研究所,人工智能浅说.1984年04月
12345第二篇:人工智能论文8400字
浅谈人工神经网络学习
1、简介
作为动态系统辨识、建模和控制的一种新的、令人感兴趣的工具,人工神经网络(ArtificialNeuralNetworks,ANN)提供了一种普遍而且实用的方法从样例中学习值为实数、离散值或向量的函数。像反向传播(BACKPROPAGATION)这样的算法,使用梯度下降下来调节网络参数以最佳拟合由输入—输出对组成的训练集合。ANN学习对于训练数据中的错误健壮性很好,且已被成功的应用到很多领域,例如视觉场景分析、语音识别以及机器人控制等。
神经网络学习方法对于逼近实数值、离散值或向量的目标函数提供的一种健壮性很强的方法。对于某些类型的问题,如学习解释复杂的现实世界中的传感器数据,人工神经网络是目前知道的最有效的学习方法。例如,反向传播算法已在很多问题中取得了惊人的成功,比如学习识别手写字符、学习识别口语、学习识别人脸等。
1.1人工神经网络学习发展简史:
对人工神经网络的研究可以追溯到计算机科学的早期。McCulloch&Pitts(1943)提出了一个相当于感知器的神经元模型,20世纪60年代他们的大量工作探索了这个模型的很多变体。20世纪60年代早期Widrow&Hoff(1960)探索了感知器网络(他们称为“adelines”)和delta法则。Rosenblatt(1962)证明了感知器训练法则的收敛性。然而,直到20世纪60年代晚期,人们才开始清楚单层的感知器网络的表现能力很有限,而且找不到训练多层网络的有效方法。Minsky&Papert(1969)说明即使是像XOR这样简单的函数也不能用单层的感知器网络表示或学习,在整个20世纪70年代ANN的研究衰退了。
在20世纪80年代中期ANN的研究经历了一次复兴,主要是因为训练多层网络的反向传播算法的发明(Rumelhart&McClelland1986;Parker1985)。这些思想可以被追溯到有关的早期研究(例如,Werbos1975)。自从20世纪80年代,反向传播算法就成为应用最广泛的学习方法,而且人们也积极探索出了很多其他的ANN方法。在同一时期,计算机变得不在贵重,这允许人们试验那些在20世纪60年代不可能被完全探索的计算密集型的算法。
2、人工神经网络学习的国内外研究状况
随着人工神经网络20世纪80年代在世界范围内的复苏,国内也逐步掀起了研究热潮。l989年10月和11月分别在北京和广州召开了神经网络及其应用讨论会和第一届全国信号处理—神经网络学术会议;l990年2月由国内八个学会(中国电子学会、人工智能学会、自动化学会、通信学会、物理学会、生物物理学会和心理学会)联合在北京召开“中国神经网络首届学术会议”。这次大会以“八学会联盟,探智能奥秘为主题收到了300多篇学术论文,开创了中国人工神经网络及神经计算机方面科学研究的新纪元。经过十几年的发展,中国学术界和工程界在人工神经网络的理论研究和应用方面取得了丰硕成果,学术论文、应用成果和研究人员逐年增加.
在国际上,1987年,在美国加洲召开了第一届国际神经网络学会.此后每年召开两次国际联合神经网络大会(IJCNN).不久,该学会创办了刊物JournalNeuralNetworks,另有十几种国际著名的神经网络学术刊物相继问世,至此,神经网络理论研究在国际学术领域获得了其应有的地位。
作为人工神经网络学习的典型算法反向传播(BP)算法,近年来国内外学者对这一算法提出了一些改进。其中,由宋绍云、仲涛提出的BP人工神经网络网络的新算法解决了传统算法的局部极小及收敛速度慢的问题。该算法是在BP神经网络现有的基础上提出的一种新的算法,该算法的基本原理是任选一组自由权,通过解线性方程组求得隐层权,将选定的自由权与求得的权合在一起,就得到所需的学习权值。而BP人工神经网络自适应学习算法的建立则解决了BP神经网络结构参数、学习速率与初始权值的选取问题,并对传统的BP算法进行了改进,提出了BP神经网络自适应学习算法,又将其编制成计算机程序,使得输入节点、隐层节点和学习速率的选取全部动态实现,减少了人为因素的干预,改善了学习速率和网络的适应能力。计算结果表明:BP神经网络自适应学习算法较传统的方法优越,训练后的神经网络模型不仅能准确地拟合训练值,而且能较精确的预测未来趋势。基于遗传算法的人工神经网络学习避免了BP算法易陷入局部极小值、训练速度慢、误差函数必须可导、受网络结构的限制等缺陷。
人工神经网络的研究同样在实践中也有所发展。比如,基于人工神经网络的并行强化学习自适应路径规划,可以很好的应用于机器人蔽障系统。BP算法在雷达目标识别中的应用以及在超声检测中的应用等都是在BP算法改进的基础上实现的。
3、所选专题的研究意义与研究方法
从1946年第一台电子数字计算机问世以来直到现在,大多数信息处理都采用程序式计算方式。这种方式解题需要设计算法或规则,并正确的编制成软件,然后才能进行问题求解。这种解题方式必须考虑3个因素:
1问题的形式化;
2可进行计算的算法;
3计算的复杂性。
比较计算机和人的处理能力,其差别是惊人的。一方面,一个人能很容易识别面孔理解语言,而一台巨型机却很难识别出一棵树来。另一方面,用计算机进行计算,可以很快的得到答案,其计算能力大大超过了人。那么数字计算和辨识物体之间究竟有哪些差别呢?
辨识物体是不能简单明确的加以定义的。要识别一棵树,就必须给出树的全部定义。做出这样一种定义,等于要描述树的每一个可以想到的变量。这类问题构成了随机问题。所谓随机问题,就是那些需要具备某一系统的实际上每种可能状态的知识才能解答的问题。因此,为解决一个随机问题,就要求记忆所有可能的解答,当给定输入数据时,从所有可能的解答的集合中迅速的选出最合适的答案。而像数学一类的计算问题,其解答通常可以用一种算法简洁地表示出来,也就是说,可以用一个精确的指令系列来表示,该指令系列规定了如何处理输入数据以得到答案。
信息处理的一种新方法并不需要开发算法和规则,极大的减少了软件的工作量,这种方法称为神经网络。神经网络是一门崭新的信息处理学科,它从神经生理学和认知科学研究成果出发,应用数学方法研究并行分布的、非程序的、适应性的、大脑风格的信息处理的本质和能力。神经网络中主要的信息处理结构是人工神经网络。
神经信息处理是介于常规处理形式和人脑处理形式的中间处理形式。一方面,神经网络企图模仿人脑的功能,而另一方面许多实现技术又是常规的。表1-1给出了这3种信息处理范型的主要特点。神经信息处理许多特性与人脑相似,诸如联想、概括、并行搜索、学习和灵活性。
表1-13种信息处理范型
人脑处理信息的特点如下:
1大规模并行处理。人脑神经元之间传递神经冲动是以毫秒计的,比普通的电子计算机慢得多。但人们通常能在1ms内对外界事物作出判断和决策。这对传统的计算机或人工智能是做不到的。由此可知,人脑的“计算”必定是建立在大规模并行处理的基础上。人善于在复杂环境下作出判断,从整体上识别事物。神经网络的大规模并行处理与多处理机构成的并行系统是不同的。
2具有很强的容错性,善于联想、概括、类比和推广。每天有大量神经细胞正常死亡,但不影响大脑正常的功能;大脑局部损伤会引起某些功能衰退,但不是功能突然丧失。在计算机中,元器件的局部损坏,或者程序中的微小错误都可能引起严重的后果,即表现出极大的脆弱性。人脑与计算机信息处理的巨大差别在于对信息的记忆和处理方式不同。计算机的模式是信息局部储存,按程序提取有关的信息,送到运算器处理。大脑中信息的记忆,特别是长期记忆是通过改变突触的效能实现的,即信息存储在神经元间连接强度的分布上,信息的记忆和处理是合二为一的。这一点,神经网络与大脑信息处理方式及其相似。
3具有很强的自适应能力。人脑功能受先天因素制约,但后天因素,如经历、训练、学习等也起重要作用。这表明人脑具有很强的自适应性和自组织性。神经网络与符号处理不同,前者强调系统的自适应或学习过程,同一网络因学习方法及内容不同,可具有不同的功能;符号处理强调程序编写,系统的功能取决于编写者的知识和能力。
由上可知,脑是最复杂、最完美、最有效的一种信息处理装置,人们正以极大的兴趣研究它的结构和机理。这种研究与20世纪初的物理学和20世纪50年代的分子生物学一样,正酝酿着重大的突破,而这一突破将给整个科学的发展带来巨大而深远的影响。人们对大大脑的认识已深入到探索脑的核心问题,鉴定出了一系列涉及脑工作的重要分子,在感知、行为、学习和记忆方面都取得了重要进展。这表明人们将有可能最终揭开大脑这个人体最复杂系统的奥秘,为现代科技发展寻找新的道路。借助大脑工作原理,有可能使信息处理获得新的突破。
正因为如此,神经科学受到世界各发达国家的高度重视。美国国会通过决议将1990年1月5日开始的10年定为“脑的十年”。国际脑研究组织号召它的成员国将“脑的十年”变为全球行动。美国国防部高级研究计划局(DARPA)制定的8年研究计划中,神经网络是重要的方向。1986年日本政府提出了“人类前沿科学计划”(HFSP)研究计划,1992年提出“真实世界计算”(RWC)研究计划。德国人从1988年开始执行“神经信息论”的研究计划。
脑科学、神经生理学、病理学主要研究神经网络的生理机理,如神经元、突触、化学递质、脑组织等的构成和工作过程。而认知科学、计算机科学主要探索人脑信息处理的微结构理论,寻求新的途径,解决当前计算机和传统人工智能难以处理的问题。以此为背景,以人工神经网络为基础,形成了神经网络的新学科。
目前,对大脑思维的过程了解仍然很肤浅,人工神经网络模拟的研究还很不充分,人们面临的是一个充满未知的新领域。神经网络将在基本原理方面进行更深刻的探索。
神经网络的发展与神经科学、认知科学、计算机科学、人工智能、信息科学
机器人学、微电子学、光计算、分子生物学等有关,是一门新兴的边缘交叉学科。神经网络研究的主要目的如下:
1理解脑系统为何具有智能。这些计算与符号表示的形式操作处理不同,人脑是如何组织和实施这些计算的。
2研究各种强调“计算能力”的神经网络模型,并不着重于这些模型的生物学保真程度
3研究大规模并行自适应处理机理。
4研究神经计算机的体系结构和实现技术。
4、适合神经网络学习的问题
人工神经网络学习非常适合于这样的问题:训练集合为含有噪声的复杂传感器数据,例如来自摄像机和麦克风的数据。它也适用于需要较多符号表示的问题,例如决策树学习任务。这种情况下ANN和决策树学习经常产生精度大体相当的结果。反向传播算法是最常用的ANN学习技术。它适合具有以下特征的问题:
(1)实例是用很多“属性-值”对表示的:要学习的目标函数是定义在可以用向量描述的实例之上的,向量由由预先定义的特征组成。这些输入属性之间可以高度相关,也可以相互独立。输入值可以是任何实数。
目标函数的输出可能是离散值、实数值或者由若干实数属性或离散属性组成的向量:例如在ALVINN(Pomerleau(1993)的ALVINN系统是ANN学习的一个典型实例,这个系统使用一个学习到的ANN以正常的速度在高速公路上驾驶汽车。)
(2)系统中输出的是30属性向量,每一个分量对应一个建议的驾驶方向。每个输出值是0和1之间的某个实数,对应于在预测相应驾驶方向时的置信度。我们也可以训练一个单一网络,同时输出行驶方向和建议的加速度,这只要简单的把编码这两种输出预测的向量连接在一起就可以了。
(3)训练数据可能包含错误:ANN学习算法对于训练数据中的有非常好的健壮性。
(4)可容忍长时间的训练:网络训练算法通常比像决策树学习这样的算法需要更长的训练时间。训练时间可能从几秒到几小时,这要看网络中权值的数量、要考虑的训练实例的数量以及不同学习算法参数的设置等因素
(5)可能需要快速求出目标函数值:尽管ANN的学习时间相对较长,但对学习到的网络求值以便把网络应用到后续的实例通常是非常快速的。例如,Alvinn在车辆向前行驶时,每秒应用它的神经网络若干次,以不断的更新驾驶方向。
(6)人类能否理解学到的目标函数是不重要的:神经网络学习方法学习到得权值经常是人类难以解释的。学到的神经网络比学到的规则难以传达给人类。
5、我对人工神经网络学习研究的认识及观点
5.1人工神经网络学习的几种算法
1.有监督Hebb算法
2.单层感知器
3.梯度(LMS)算法
4.BP算法
这几种算法中,BP算法应用最为广泛。
5.2基于反向传播网络的学习
反向传播算法是一种计算单个权值变化引起网络性能变化值得较为简单的方法。由于BP算法过程包含从输出节点开始,反向地向第一隐含层(即最接近输入层的隐含层)传播由总误差引起的权值修正,所以称为“反向传播”。
5.2.1反向传播网络的结构
鲁梅尔哈特(Rumelhart)和麦克莱兰(Meclelland)于1985年发展了BP网络学习算法,实现了明基斯的多层网络设想。BP网络不仅含有输入节点和输出节点,而且还含有一层或多层隐(层)节点,如图5.1所示输入信号首先向前传递到隐节点,经过作用后,再把隐节点的输出信息传递到输出节点,最后给出输出结果。节点的激发函数一般选用S型函数。
BP算法的学习过程由正向传播和反向传播组成。在正向传播过程中,输入信息从输入层经隐单元层逐层处理后,传至输出层。每一层神经元的状态只影响下一层神经元的状态。如果在输出层得不到期望输出,那么就转为反向传播,把误差信号沿原连接路径返回,并通过修改各层神经元的权值,使误差信号最小。
图5.1BP网络
5.2.2反向传播学习算法
(1)选取比率参数r。
(2)进行下列过程直至性能满足要求为止。
1对于每一训练(采样)输入;
(a)计算所得输出,
(b)按下式计算输出节点的值
(c)按下式计算全部其他节点
(d)按下式计算全部权值变化
2对于所有训练(采样)输入,对权值变化求和,并修正各权值。
权值变化与输出误差成正比,作为训练目标输出只能逼近1和0两值,而绝不可能达到1和0值。因此,当采用1作为训练目标值作为训练时,所有输出实际上呈现出大于0.9的值;而当采用0作为目标值进行训练时,所有输出实际上呈现出小于0.1的值;这样的性能就被认为是满意的。
反向传播算法是一种很有效的学习算法,它已解决了不少问题,成为神经网络的重要模型之一。反向传播算法框图如图5.2所示。
图5.2反向传播算法框图
5.2.3反向传播算法性能分析
反向传播算法作为指导多层感知器训练的最流行的算法而出现,基本上,它是一个梯度(导数)的技术而不是一个最优化技术。其具有两个明显的性质:局部计算简单;可实现权值空间的随机梯度下降。多层感知器背景下的BP学习的这两个属性导致了它的优点和缺点。
1.BP网络的优点
1BP网络实质上实现了一个从输入到输出的映射功能,而数学理论已经证明它具有实现任何复杂非线性映射的功能。这使得它特别适合于求解内部机制复杂的问题。当隐含神经元可以任意配置时,BP网络能记忆任意给定的学习样本,再现样本输入到样本输出的联想关系。BP网络的记忆容量与隐含神经元的数量相关,BP网络的记忆容量可通过增加隐含神经元而得到扩充。
2BP网络能通过学习带正确答案的实例集自动提取“合理的”求解规则,即具有自学习能力。通过学习,BP网络能在任意精度范围内表达复杂的非线性映射。
3BP网络具有泛化能力,能从样本数据中学习知识,抽象一般性规律。BP网络的泛化能力既与自身记忆容量相关,又与学习样本具有的信息量相关。
2.BP网络的问题
传统的BP网络在诸多领域得到广泛应用,也取得一定的成效,但在实际应用中有时处理结果并不理想,还存在诸多问题。究其原因,主要是BP网络还存在许多固有的缺点,这不只是多层前向BP网络的问题。
1BP算法的学习速度很慢,其主要原因有:
•由于BP算法本质上为梯度下降法,而它所要优化的目标函数又非常复杂因而必然会出现“锯齿形现象”,这使得BP算法低效。
•存在麻痹现象。由于优化的目标函数很复杂,它必然会在神经元输出接近0和1的情况下出现一些平坦区。在这些区域内,权值误差改变很小,使训练过程几乎停顿。
•为了使网络执行BP算法,不能用传统的一维搜索法求每次迭代的步长,而必须把步长的更新规则预先赋予网络,而这种方法将引起算法低效。
2网络训练失败的可能性较大,其原因有:
•从数学角度看,BP算法为一种局部搜索的优化方法,但它要解决的问题为求解复杂非线性函数的全局极值,因此算法很有可能陷入局部极值,使训练失败。
•网络的逼近、推广能力同学习样本的典型性密切相关,而从问题中选取典型样本实例组成训练集是一个很困难的问题。
3难以解决应用问题的实例规模和网络规模间的矛盾。这涉及网络容量的可能性与可行性的关系问题,即学习复杂性问题。
4网络结构的选择尚无一种统一而完整的理论指导,一般只能由经验决定。为此,有人称神经网络的结构选择为一种艺术。而网络的结构直接影响网络的逼近能力及推广性质。因此,应用中如何选择合适的网络结构是一个重要的问题。
5新加入的样本要影响已学习成功的网络,而且描述每个输入样本的特征的数目也必须相同。
6网络的预测能力(也称泛化能力)与训练能力(也称逼近能力)的矛盾。一般情况下,训练能力差时,预测能力也差,并且一定程度上,随训练能力的提高,预测能力反而下降,即出现所谓“过拟合”现象。此时,网络学习了过多的样本细节,但是不能反映样本内含的规律。
6.小结
1、人工神经网络学习为学习实数值和向量值函数提供了一种实际的方法,对于连续的和离散值得属性都可以使用,并且对训练数据中的噪声具有很好的健壮性。反向传播算法是最常见的网络学习算法,这已经被成功应用在很多学习任务中,比如手写识别和机器人控制。
2、反向传播算法考虑的假设空间是固定连接的有权网络所能表示的所有函数的空间。包含三层单元的前馈网络能够以任意精度逼近任意函数,只要每一层有足够数量的单元。即使是一个实际大小的网络也能够表示很大范围的高度非线性函数,这使得前馈网络成为学习预先未知的一般形式的离散和连续函数的很好选择。
3、反向传播算法使用梯度下降方法搜索可能假设的空间,迭代减小网络的误差以拟合训练数据。梯度下降收敛到训练误差相对网络权值的局部极小值。通常,梯度下降是一种有应用潜力的方法,它可用来搜索很多连续参数的假设空间,只要训练误差是假设参数的可微函数。
4、反向传播算法最令人感兴趣的特征之一,是它能够创造出网络输入中没有明确出现的特征。确切的讲,多层网络的隐藏层能够表示对学习目标函数有用的但隐含在网络输入中的中间特征。
5、过度拟合训练是ANN学习中的一个重要问题。过度拟合导致网络泛化到新的数据时性能很差,尽管网络对于数据表现非常好。交叉验证方法可以用来估计梯度下降搜索的合适终止点,从而最小化过度拟合的风险。
任何新生事物的成长都不是一帆风顺的。人工神经网络学习也不例外。但是,经过长时间的研究发展,神经网络学习已经逐步成长起来了,在未来的发展中可能会遇到新的困难,甚至遭受较大的挫折。广大研究者也可能会为此承受巨大风险。但是作为科学研究者,我们应持有乐观的态度,为神经网络学习的发展做贡献。
参考文献:
【1】宋绍云,仲涛.BP人工神经网络的新型算法.人工智能及识别技术,2009,5(5)
【2】李晓峰,徐玖平,王荫清,贺昌政.BP人工神经网络自适应学习算法的建立及其应用.系统工程理论与实践.2004,5(5)
【3】李建珍.基于遗传算法的人工神经网络学习算法.西北师范大学学报(自然科学版).2002,38(2)
【4】耿晓龙,李长江.基于人工神经网络的并行强化学习自适应路径规划.科学技术与工程.2011,11(4)
【5】蔡自兴,徐光祐.人工智能及其应用.北京:清华大学出版社,2010
【6】史忠植.神经网络.北京:高等教育出版社,2009
【7】(美)TomM.Mitchell.曾华军张银奎等译.机器学习.北京:机械工业出版社,2003
【8】涂序彦.人工智能:回顾与展望.中国人工智能学会.北京:科学出版社,2006
【9】朱福喜,朱三元,伍春香.人工智能基础教程.北京:清华大学出版社,2006
+更多类似范文┣ 工程测量论文4000字┣ 工程实习论文2900字┣ 铁道工程论文2300字┣ 工程测量论文2200字┣ 更多工程论文范文人工智能在产前超声领域应用
人工智能在产前超声领域应用时间:2023-05-2807:08:27
【摘要】人工智能是利用数据和计算机算法实现原本人类才能完成的任务。借助计算机“高效、稳定”的优势,人工智能甚至在某些劳动密集型任务中发挥着超人类的作用。其中,医学影像领域凭借其图像标准化程度高、大数据支撑的天然优势,目前已与人工智能结合为一个新兴的医学研究领域,并迅速成长。产前超声受孕周、胎位和声衰减等影响,所获图像的标准化程度低、图像特征描述困难等,导致机器学习的特征工程准确性低,是医学图像领域中人工智能研发的最难点。近年来,借助深度学习技术发展的优势,产前超声人工智能识别研究逐渐起步,并取得了令人鼓舞的结果,例如在标准切面定位、胎儿生长指标与解剖结构的自动测量、鉴定图像的标准化程度、正常和异常图像的分类识别等方面,人工智能呈现出与产科超声专业人员相媲美的筛查与诊断能力。本文将概述医学影像人工智能的基本概念、人工智能在产前超声领域的研究进展、未来发展趋势和方向,旨在促进产前超声与人工智能领域的跨学科研究,以进一步挖掘人工智能在产前超声领域的发展潜能。
【关键词】产前超声;人工智能;深度学习
智能的概念最初被描述为计算机程序执行与人类智能相关的过程的能力,如推理、学习、适应、感官交互理解。19世纪50年代AlanTuring在一份研讨会论文中提出测试机器是否具有智能的方法,如机器能够与人类展开对话而不被评估者辨别出其机器身份,那么称这台机器具有“智能”[1]。随后McCar-thy等[2]提出“人工智能(artificialintelligence,AI)”这一特指名词。传统的计算机算法(如电子计算器)设置好既定的规则,每次都执行相同的功能,AI算法则自动从训练数据中学习规则(函数)。当今AI作为人脸识别技术、虚拟助手语音识别(如亚马逊的Alexa、苹果的Siri、谷歌的Assistant和微软的Cortana、汽车自动驾驶等)的基础,已广泛应用于我们的日常生活中。人机对弈的里程碑事件包括1997年“深蓝”电脑击败了国际象棋世界冠军GaryKasparov、2016年击败了中国职业围棋手李世石(9段)[3]。在医学领域,AI因其具有从大数据中获取规律的能力,可用于筛查、预测、分诊、诊断、药物开发、治疗、监测和影像识别等,目前已在新药研发[4-5]、临床决策[6-8]、医学影像判读[9-10]等各方面发挥着助力作用。已获得美国食品和药物管理局批准的AI图像分析软件呈指数递增,如检测心律失常的智能手表、自动提取关键诊断图像的智能软件等。产前超声是医学影像AI领域的难点,受孕周、胎位、超声特有的声衰减等影响,图像标准化程度低、特征描述困难,从而导致机器学习的特征工程准确性低。深度学习是先进AI技术的代表,在图像模式识别方面表现尤其出色,通过模仿人脑的结构设计,可自动提取底层特征,避免了人为图像分割导致特征工程准确性低的影响。因此,借助深度学习技术极有可能在这项劳动密集型任务中突破瓶颈,为智能化图像识别提供更为深远的帮助。本文整合这两个领域的基本理论知识,介绍AI基本概念,探讨AI与产前超声领域结合的研究进展、机遇与挑战、未来趋势,旨在加强产前超声领域与AI领域专业人士之间的跨学科交流,进一步挖掘AI在产前超声领域发展的巨大潜力。
1AI基本概念
广义的AI指机器具备任何与人类相似的思考、学习、推理的能力,即机器从数据和经验中学习规律,从而达到可提供新的数据和经验的能力。狭义的AI是机器执行特定任务的能力,如图像检测、翻译、国际象棋等。机器学习是AI的一个分支,可理解为随数据量增多而逐渐改进统计方法,以获得最佳模型(函数/规律),最终达到预测未知状况的目的[11]。换而言之,大数据支持是机器获得智能的基础,而医学影像在常规临床实践中积累的大数据库为机器学习提供了丰富的资源。根据学习方式不同又可分为:监督学习、无监督学习和强化学习。监督学习中训练数据是具有标签的,机器根据已有的数据标签,找到输入和输出结果之间的关系;无监督学习中训练数据是不需要标记的,机器通过聚类的方式从数据中寻找某种内在共性,从而分类数据;强化学习不直接给出解决方案,通过试错、激励的方式以达成回报最大化。深度学习是机器学习的另一分支。在深度学习中,输入和输出由多层隐藏层连接,也称为卷积神经网络(convolutionalneuralnetworks,CNN),是一种受生物神经网络启发的计算算法。深度学习神经网络含有多层隐藏层,可自动提取底层特征,使人眼无法分辨的抽象信息得以保真学习[12-13]。因此,其应用于医学影像AI识别时,可以有效避免人为图像分割导致的特征工程准确性低。
2AI在产前超声领域研究进展
随着人们对先天性畸形产前筛查重要性的认知逐步加深,产前超声筛查需求持续增长,而要达到专业产前超声筛查所需能力的培训时间长,导致产前超声工作者的工作负荷急剧增加。因而,提高产前超声筛查效能的迫切需求成为了AI在产前超声领域发展的主要驱动力。目前,产前超声AI领域的研究进展主要呈现在以下方面:产前超声筛查切面识别与定位、生长指标与解剖结构的自动测量、鉴定图像的标准化程度、部分标准切面的正常异常的分类识别等。
2.1产前超声筛查切面智能识别与定位
产前超声筛查切面智能识别是指计算机通过大量学习已知数据的类别标签,实现超声图像输入后切面的自动分类,如图像是腹围切面还是头颅切面,这是进一步测量、诊断异常的基础。而筛查切面的定位是指机器能在视频流或众多扫查切面中定位到所需的诊断切面。早在2017年,Yu等[14]借助深度学习CNN的结构优势,配合迁移学习策略和针对性的数据增强技术,实现了胎儿颜面正中矢状面、双眼水平面、鼻唇冠状面的分类识别,经测试该模型的受试者曲线下面积达0.979~0.999。同年,Chen等[15]应用卷积和递归神经网络的新型复合框架实现在图片和视频集中对腹围切面、双眼横切面、四腔心切面的自动分类识别。英国帝国理工学院Baumgartner等[16]通过深度学习弱监督学习模式,建立了CNN模型SonoNet,实现了自由扫查时13个胎儿标准切面的自动识别,图像召回率达90.9%。该项技术的实现将有利于引导经验不足的操作人员获取胎儿筛查的标准切面,全面提高产前超声医师培训效能,缓解全球范围内专业产前超声工作者短缺的压力。甚至在紧急情况下,非产前超声专业医疗工作者基于AI辅助也可获取筛查切面进行基本的产前超声筛查。
2.2胎儿生长指标及解剖结构的自动测量
计算机自动测量的基础是根据超声图像中不同区域所展示的回声强弱、空间纹理、结构形状、边缘连续性等特征,把目标图像中特征性解剖结构从其周围的背景中抽离出来。将深度学习自动分割优势应用于标准切面自动测量,展现出良好的性能。目前很多的超声仪器都配备自动测量AI软件,包括颈项透明层、生长发育指标、侧脑室等的测量。如Chen等[17]基于CNN对胎儿颅脑侧脑室的像素级分割,实现了侧脑室宽径准确测量,误差仅1.8mm。荷兰拉德堡德大学团队[18]基于VGG-Net的网络,自动分割胎儿颅骨光环,再通过U-Net网络来自动测量胎儿头围,最后以参考头围的Hadlock曲线来确定孕周,实现孕周的自动估算。Kagan等[19]对比了人工与半自动测量颈项透明层厚度在不同经验医师间重复性的差异,发现自动化测量技术有利于经验不足的操作人员对颈项透明层进行更为准确的评估。基于自动分割特征图像,AI技术准确的自动测量将简化所有超声工作者平时的操作步骤,节约检查时间而将更多的注意力专注于特征性结构或病灶。
2.3产前超声筛查切面的标准化程度质控
产前超声筛查切面的标准化程度质控是指判断超声图像是否显示了标准切面所必须显示的结构,是避免误诊与漏诊的基础,也是培训专业的产前超声工作者的关键。通过将医学逻辑转化为计算机语言进行图像的量化质控,我国深圳大学团队产出了出色成果。其中,Wu等[20]将AI检测技术应用于胎儿腹围切面的标准化程度质控。首先基于CNN定位图像中胎儿腹部横切面,再基于标准的腹围切面需显示胃泡、脐静脉等关键结构,对关键结构的显示进行量化评分。该研究所研发的FUIQA网络对腹围切面的质控评分与3名专家的主观评价相接近。Lin等[21]提出基于候选区域快速卷积神经网络多任务学习框架MFR-CNN对颅脑横切面内的丘脑、外侧裂、脉络膜丛,侧脑室后角、透明隔腔、第三脑室进行分类及定位检测,结合图像放大程度对切面进行量化评分。以交并比>0.7为定位准确,该模型对切面中结构定位准确率达80%以上,平均分析时间为0.5s。Dong等[22]建立的胎儿四腔心切面质控评分的神经网络综合考虑了图像的增益、放大程度以及图像所必须显示的关键结构等因素。如果同时检测到:4个腔室、肺静脉回流角,心尖、乳头肌、两侧各显示1条肋骨,且增益及放大程度合适,机器则判断为标准四腔心切面。其定量质控胎儿四腔心切面内部验证精度93.52%,外部验证精度达81.2%。
2.4正常与异常产前超声图像的自动分类识别
胎儿异常的诊断是AI在产前超声领域的最难点:首先胎儿畸形的产前诊断通常需要多切面联合诊断,单一平面信息量少,AI算法需要解决动态、联想、立体识别等方面的难题。此外,胎儿畸形的病变种类很多,每种畸形变化不一,相对来说单一病种数据量少,AI识别也面临数据量不足的困境。近两年,研究者们开始尝试于胎儿心脏及颅脑的正异常分类或部分异常类型诊断方面作出突破。2020年,Gong等[23]在建立胎儿先心病AI筛查模型中,首次引入了异常四腔心切面的图片训练,验证结果表明AI在分类正常与异常四腔心图像的表现超过了低年资及中年资医师,仅次于高年资医师。Ar-naout等[24]建立的神经网络在识别5个胎儿心脏标准切面基础上,实现了正常与16种先心病的智能分辨,曲线下面积为0.99,敏感度为95%[95%置信区间(CI)84%~99%],特异度为96%(95%CI95%~97%)。Xie等[25]基于深度学习卷积神经网络对胎儿颅脑超声图像进行正异常分类,该分类系统测试结果显示正常与异常颅脑横切面分类准确率达96.31%,明显超过既往文献报道的80%。热力图病灶定位结果显示61.62%达到精确定位,24.65%定位到与病灶紧邻的位置。同一课题组Lin等[26]通过分割和标记超过21500张胎儿颅脑超声图像进一步提出了胎儿颅脑异常实时AI辅助诊断系统,该系统可以在常规超声扫查中自动识别胎儿颅脑横切面及切面内特征性解剖标志,并根据图像检测9大种不同颅内异常。该系统的受试者工作特征曲线下面积为0.81~0.95。上述研究成果表明,基于机器视觉中的多项任务(分类、分割、检测),AI技术在产前超声领域的研究已逐渐从正常切面的定位识别过渡至异常声像的分类诊断,并有望模拟经验丰富的产前超声医师,权衡多种图像参数的同时辨别伪影,指导正确的临床决策。
3产前超声AI的挑战与趋势预测
AI技术在产前超声领域的研究进展充分展现了AI技术的优势及有望减轻产前超声工作者负荷的潜能。然而,将AI引入临床实践仍然面临诸多挑战,特别是对AI模型普适性的考证及一些目前尚无法避免的伦理问题的解决是将研究成果转化为生产力的必要准备。首先,AI模型的普适性问题:(1)单一中心获取的训练数据所建立的模型能否适用于不同的产前筛查与诊断的场景;(2)为中孕期设计的AI模型很难适用于早孕、晚孕的超声检查;(3)大多数AI模型是通过“监督学习”推导出来的,这意味着医师标注的准确性将影响模型的准确性。人类参与不可避免地在学习过程中引入主观偏差,得到的模型也可能受标注偏倚影响。因此,未来的AI模型无论是针对训练集的标注、还是验证数据集的底层标签,均需考虑制定合适的准则对质量进行把关。AI的适用性也需根据训练及验证数据制定严格规范,未来开展大规模多中心的临床研究将成为AI进入临床实践的必经之路。此外,真实场景的临床思维不仅考虑图像的特征,还会根据年龄、家族史、既往史、其他指标进行多因素整合分析,而AI模型只针对训练过的特征进行预测,不考虑其他因素。因此,未来医疗AI领域的研究重点将是构建AI集成图像和电子病例的“个性化影像诊断”。另外,AI在产前超声的应用,或者说在医学的应用,不可避免地会遇到一些伦理问题,例如AI应用到临床需要达到多高的准确率、AI所产生的医疗风险将由谁承担,需要各位研究者们进一步建立行业标准来规范这些问题。
4总结
AI在产前超声领域的研究进展,提示其有望改善筛查与诊断的工作流程、增加产前超声诊断者诊断的信心、提高产前筛查效能。未来的AI开发者和产前超声专业人员需进一步加强跨学科交流,将潜力转化为生产力,并联合多学科共同制定标准化的行业规范,规范这一新兴领域的行业标准。利益相关声明:本文作者无相关利益冲突。作者贡献说明:谢红宁负责提出选题及论文设计,并对论文进行修改;雷婷起草了本论文。
作者:雷婷谢红宁单位:中山大学附属第一医院超声科