大数据与人工智能论文
经过一学期的学习,我对大数据与人工智能有了基本的认识。身处大数据时代,云计算、人工智能等核心技术正在以“一往无前”的气势推动着企业创新和新一轮技术的变革。数据记录着庞大的行为轨迹以及商业触点,让一切可溯。
随着移动互联网和云计算的的飞速发展,空间位置数据的快速沉淀和积累,使得空间大数据迅速崛起,登上舞台。而机器深度学习、人工智能技术的诞生则进一步拓展了空间大数据的服务能力,人工智能技术不仅能够提升数据处理能力及效率、降低人力消耗,更使得空间大数据服务应用到更多领域,在针对不同客户需求,精准定制数据信息服务方面都有着出色的表现。当空间大数据、云计算与人工智能发生碰撞,地理服务产业势必会发生神奇的变革与进步。
继移动互联技术和云计算技术之后,能够称得上颠覆性信息技术的当属大数据技术了。大数据主要包括采集与预处理、存储与管理、分析与加工、可视化计算及数据安全等,具备数据规模不断扩大、种类繁多、产生速度快、处理能力要求高、时效性强、可靠性要求严格、价值大但密度较低等特点,为人工智能提供丰富的数据积累和训练资源。以人脸识别所用的训练图像数量为例,百度训练人脸识别系统需要2亿幅人脸画像。它使得我们能够对数量大、种类多、价值密度低、本身快速变化的数据进行有效地、低成本地存取、检索、分类以及统计。但这不代表我们可以高效率和低成本地掌握这些数据中蕴藏的巨大价值,诸如隐性社会科学规律和经验。不过值得一提的是,人工智能技术在大数据分析、预测等领域已经开始崭露头角,展现出了强劲的发展势头,大数据的核心使用价值在人工智能技术的发展与运用下展示了巨大潜力。同时,大数据技术的发展也为人工智能领域带来了大量机遇和挑战,更加激发了该领域的无限发展可能性。大数据分为三个层次。一是容量很大的数据,比如两个仓库都堆满了很多书,甲仓库的书全是大学二年级数学教材,乙仓库的为大学各类教材及其提升学生综合能力的各类图书,两仓库都满足了“大”的要求;二是大容量且有用的数据,比如对大学教学来说,肯定上述甲仓库的书几乎没用,而乙能满足这一要求;三是从中挖掘核心数据的强大能力,这个很考水平。所以,大数据不能简单地理解为数据多,其核心是数据挖掘。挖掘数据则要涉及到云计算。这种如云般运算的能力与强度,实际上就是考验科技与研发人员的“认知”水准。但数据实际上是个老掉了牙的东西。上古时期的结绳记事、以月之盈亏计算岁月,到后来部落内部以猎物、采摘多寡计算贡献,再到历朝历代的土地农田、人口粮食、马匹军队等各类事项都涉及到大量的数据。这些数据虽然越来越多、越来越大,但是,人们都未曾冠之以“大”字,那是什么事情让“数据”这瓶老酒突然换发了青春并如此时髦了起来呢?
对比大数据和人工智能产业的发展是有启发的。因为人工智能的发展和数据密不可分,而且目前人工智能发展所取得的成就大部分和大数据密切相关,因此观察大数据产业的发展对人工智能产业发展很有意义,同时我们认为数据驱动的商业比智能驱动的商业更符合产业的本质,实际上大数据产业的落地能力是强于人工智能的,所以大数据产业发展中出现的问题对人工智能产业发展很有意义。大数据和人工智能虽然关注点并不相同,但是却有密切的联系,一方面人工智能需要大量的数据作为“思考”和“决策”的基础,另一方面大数据也需要人工智能技术进行数据价值化操作,比如机器学习就是数据分析的常用方式。在大数据价值的两个主要体现当中,数据应用的主要渠道之一就是人工智能产品,为智能体提供的数据量越大,智能体运行的效果就会越好,因为智能体通常需要大量的数据进行“训练”和“验证”,从而保障运行的可靠性和稳定性。在计算力指数级增长及高价值数据的驱动下,以人工智能为核心的智能化正不断延伸其技术应用广度、拓展技术突破深度,并不断增强技术落地(商业变现)的速度,例如,在新零售领域,大数据与人工智能技术的结合,可以提升人脸识别的准确率,商家可以更好地预测每月的销售情况;在交通领域,大数据和人工智能技术的结合,基于大量的交通数据开发的智能交通流量预测、智能交通疏导等人工智能应用可以实现对整体交通网络进行智能控制;在健康领域,大数据和人工智能技术的结合,能够提供医疗影像分析、辅助诊疗、医疗机器人等更便捷、更智能的医疗服务。同时在技术层面,大数据技术已经基本成熟,并且推动人工智能技术以惊人的速度进步;产业层面,智能安防、自动驾驶、医疗影像等都在加速落地。
目前大数据相关技术已经趋于成熟,相关的理论体系已经逐步完善,而人工智能尚处在行业发展的初期,理论体系依然有巨大的发展空间。从学习的角度来说,如果从大数据开始学习是个不错的选择,从大数据过渡到人工智能也会相对比较容易。总的来说,两个技术之间并不存在孰优孰劣的问题,发展空间都非常大。
大数据与人工智能结课论文
经过一个学期对大数据与人工智能的学习,我对这门课程有了相对粗浅的理解,也对这块从前完全陌生的领域有了最初的涉足。在这里,我就向大家分享一下自己对大数据与人工智能这块知识领域的认知。要想对这门课程有个初步了解,首先要有一个熟悉一个概念:自然语言处理。下面我来简单介绍一下自然语言(摘自百度的说法):自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别。自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统,特别是其中的软件系统。因而它是计算机科学的一部分。自然语言处理,即实现人机间自然语言通信,或实现自然语言理解和自然语言生成是十分困难的。造成困难的根本原因是自然语言文本和对话的各个层次上广泛存在的各种各样的歧义性或多义性。自然语言处理(NLP)是计算机科学,人工智能,语言学关注计算机和人类(自然)语言之间的相互作用的领域。
由上述材料可知,很简单,字面意思,自然语言是人类与计算机沟通的一种方式,从而使计算机的一些功能应用帮助我们解决生活中的一些费时费力的问题,便利我们的生活。而大数据与人工智能便是在此基础之上,利用互联网及庞大的数据库,获取有用的信息,从而便利我们的生活。就像掌握大数据,掌握数据者掌握命运,毫不夸张。例如:大数据对个人财产状况能掌握得一清二楚,是政府有效预防腐败的有利武器。利用大数据技术进行舆情监测,
谈大数据人工智能时代智慧交通
谈大数据人工智能时代智慧交通时间:2023-05-0417:22:18
摘要:新形势下,我们的生活、工作等各方面都开始进入了大数据人工智能时代,城市交通方面也被纳入重点考虑范围。本文主要是根据大数据人工智能时代下的智慧交通的研究意义分析,并进一步地去了解如何实现大数据人工智能时代之下的智慧交通。
关键词:大数据;人工智能;智慧交通
当前,大数据人工智能几乎成了一个家喻户晓的名词,我们也每天都生活在其中。我们应该要利用好大数据人工智能时代给我们带来的优惠空间,然后让我们进一步地将其应用在各个范围内。我们当前也正面临着城市交通困境的现状,我们非常有必要利用物联网、互联网、计算机等各种手段对其进行解决,保证我们的生活工作能够畅通运行。大数据人工智能时代的智慧交通研究不仅可以方便我们现在的生活,还能够进一步的促进我国科技与经济的提升,进而提升我国的综合国力提升,为推进现代化进程奠定坚实的基础。
1研究意义
1.1为解决城市交通困境提供渠道
当前我们的城市人口密集度较高,而且交通工具的增长速度比城市交通改善的速度要快,因此我们面临着日益艰难的城市交通困境,人和交通工具的矛盾进一步地加深,要积极地发展以大数据为基础的智慧交通是大势所趋,也是我们这个时代应该要亟待解决的一个重大问题。另外,由于当前我们的交通警力存在严重短缺的问题,随着我国社会经济和社会科技的不断发展,我国的总公里里程数已经跃居世界第一,私家车的拥有数量也呈现井喷式的上升,在这种交通警力严重不足以及交通管理任务如此严峻的情况下,我们非常有必要利用好科技来协助交通警力,依托科技来解放警力。我们应该要利用互联网、物联网、计算机等一些便捷的数据传输功能,实现对路面交通的进一步管理和全面监控,只有认识到位才有可能真正地了解这些新的互联网工具如何实现交通管理工作,进而才能够利用互联网、云计算、计算机等服务来实现交通管理工作。
1.2完善城市交通网络的服务
当前政府部门也非常重视智能交通基础设施的建设,并且增加了各方面的资金投入,为了缓解交通拥挤的现象,保证每条道路能够畅通无阻运行,国内很多的城市在不同的程度上对智慧交通进行了尝试,并且取得了不错的效果。经过综合的研究调查分析,我们发现,很多城市在进行智慧交通研究以及具体实践的过程中,尽管各个方面的功能还不够健全和完善,但是它们切实地实现了城市交通网络服务功能的完善,实现对大数据处理技术、互联网技术、物联网技术等要素的整合利用,这对于更好地发展我们城市交通网络的建设有非常重要的理论意义和实践意义,从而能够进一步的改善我们当前存在的城市交通拥挤问题,为城市交通建设事业的长远发展奠定坚实的基础。
2研究思路
目前我们存在着各种城市交通方面的问题,我们非常有必要利用好大数据智能时代,为更好地解决我们的城市拥堵问题提供方法和渠道。因此,我们有必要明确研究思路,为更好地实现智慧交通的建设奠定理论基础。具体的研究思路包括以下几个方面:
2.1提高数据库的信息完整性、有效性
我们之所以会认为大数据人工智能时代下给我们带来很多优惠空间,是因为我们可以通过大数据了解到各个方面的信息,然后经过综合的统计分析可以发现城市交通或者是其他方面的一些现象或者的规律性,进而能够更好地利用它为未来的建设目标提供一些有效的信息。从而在实践中更好地实现预设目标。因此我们要研究大数据人工智能时代下的智慧交通,我们也必须首先要保证数据库信息的完整性以及有效性,以便我们在利用这些数据分析问题的时候,不会因为信息问题出现差错而导致结果错误或者是相对偏离问题方向。具体来说,需要我们相关技术人员要重视数据库在智慧交通建设中的科学使用,提高它的利用效率以及它的实践效果,必须在函数驱动叠加、数据统计分析、集中学习等方式的配合之下,提高智慧交通网络运行的数据处理质量和效率,不断地改善现代当前所存在的各方面的城市交通问题。
2.2提高交通检测器效率
智慧交通网络的服务水平的高低对于我们智慧交通建设中能不能实现对不同路段和不同路况的交通状况进行实时有效分析有着至关重要的作用,所以为了进一步的防止各种降低因为交通道路问题引发的安全事故,切实的改善智慧交通网络运行的水平,就需要我们进一步地提高交通检测器的检测效率。具体来讲可以从两方面入手,一方面,针对现有的交通检测器,可以在传感器、摄像头、感应线圈等设备的支持下,对城市进出入车辆,城市内部行驶车辆、未行驶车辆进行实时有效的监控,做好信息方面的检测工作,使得智慧交通网络在大数据人工智能时代背景下可以处于稳定高效的运行状态,减少城市交通方面的问题发生,另外一方面,我们也可以通过对交通检测器的实时更换或者实时的设备检测,又或者对交通检测器的功能进行创新改造,通过多方面的手段实现对交通检测器的功能完善,从而能够进一步的改善交通检测器的检测效率,为更好地解决城市交通方面的问题提供技术支持。总之,这两个方面都是为了切实提高交通检测器的检测效率,为避免因为检测器出现问题而导致城市交通事故发生率提高。为了保证我们不犯这种技术上的问题,应该非常重视这种检测器的安全设置以及实时检查。
2.3注重引入智能要素
在大数据人工智能时代背景之下,我们应该要既要重视大数据的有效信息,也应该要注重智能要素的引入,为更好实现智慧交通建设目标提供前提和基础。具体来讲主要包括两个方面,首先要注重人工智能理论的引入,随着我们社会科技的不断进步和发展,人工智能理论也在我们的生活中频频出现。对于智慧交通的建设也应该要引入人工智能理论,通过人工智能能够简化各方面的工作以及能够提高工作效率。比如我们在计算三维空间时可以对智慧交通方面的场景进行动态模拟分析,可以使得智慧交通网络运行的外部数据和内部数据能够得到整合利用,而且可以通过大数据公司的专业技术人员的支持,结合人工智能理论能够实现智慧交通的科学建设,还能突出它的网络运行的高效性以及智能化。另一方面,我们上面所提到的要更好地保证智慧交通系统的建设离不开大数据的完整性和有效性,但是这个基础和前提是有大数据库,并且能够经过不断检验和实践能保证它的可靠性,因此我们要对智慧交通网络运行中的数据进行有效的收集,整理,统计利用,才能保证网络运行的性能更加可靠,并且为大数据系统的高效运行提供技术支撑,因此我们要注重人工智能方面算法要素在智慧交通中的引入和使用,并且相应加以探讨分析,将其落实到位,以流程化管理精细化智能化的方式对智慧交通进行有效的建设,使得其交通运行网络能够与大数据人工智能时代的形式变化相适应。
3结语
综上所述,我们发现大数据人工智能时代下的智慧交通系统建设其实是一个比较复杂的系统,我们应该顺应时代的潮流,要合理地利用好大数据和人工智能,将其应用在我们生活的各个方面,其中非常重要的一个方面就是我们的城市交通问题。我们应该要将其合理的利用来改善我们当前的城市交通困境以及为更好地提供城市交通服务方面做工作,具体的研究思路主要是我们应该做好注重提高数据库信息的完整性以及有效性,定期检测交通检测器的效率,以及注重引入智能要素通过三方面的工作。为更好地应对当前的城市交通困境等方面的问题以及如何合理利用当前的大数据和人工智能资源提供一些新的思路和想法。
参考文献:
[1]张恺.大数据人工智能时代的智慧交通研究[J].中国新通信,2019,21(16):55.
[2]程璐明.大数据人工智能时代的智慧交通研究[J].智能城市,2019,5(05):88-89.
[3]张宇航.关于大数据人工智能时代的智慧交通研究[J].通讯世界,2019,26(02):87-88.
[4]陈思恩.大数据人工智能时代的智慧交通[J].软件和集成电路,2017(08):86-87.
作者:于丹单位:长春广播电视大学
【人工智能—课程论文 6000字】范文118
系统工程论文浅谈层次分析法的优缺点4600字电气安装技师论文电气安装工程论文:变电电气设备安装调试与运行维护技术分析2800字加强村级事务规范化,推行“阳光村务”工程论文2000字自动化电气工程论文2200字工程管理毕业论文范例25200字项目管理毕业论文范本19700字xxx大学
人工智能概论
课程论文
学院核自院
专业机械工程及自动化
班级机械x班
姓名xxx
学号xxx
导师朱x
课题人工智能原理与应用
201x年1x月2x日
人工智能的原理与应用
摘要:人工智能(AI)一直都处于计算机技术的最前沿,长久以来,人工智能对于普通人来说是那样的可望而不可及,然而它却吸引了无数研究人员为之奉献才智,从美国的麻省理工学院(MIT)、卡内基-梅隆大学(CMU)到IBM公司,再到日本的本田公司、SONY公司以及国内的清华大学、中科院等科研院所,全世界的实验室都在进行着AI技术的实验。不久前,著名导演斯蒂文斯皮尔伯格还将这一主题搬上了银幕,科幻片《人工智能》(A.I.)对许多人的头脑又一次产生了震动,引起了一些人士了解并探索人工智能领域的兴趣。
关键词:人工智能;专家系统;模式识别
引言:
人工智能的发展已达到很高水平,电子计算机将更接近大脑的功能了,虽然计算机解决问题的能力从技术角度看目前还有很大局限性,计算机万能论者的理论依据也是有问题的。计算机暂时不能代替人我相信他预见的会成为现实,目前也有了很多技术突破,这就是人类-机器的结合体,他预见这是人类进化史上的一个飞跃。在这样一个结合体形式下,肯定超出目前的人的智能和人工智能,这个结合体中,人类的大脑将植入能和机器直接沟通的芯片,这个芯片是人机的桥梁,而人类-机器结合体将发挥出人与机器的各自优势。
一、什么是人工智能由于人工智能是一个边缘学科,是哲学、数学、电子工程、计算机科学、心理学等众多学科的混血儿。它的研究队伍由未自不同领域的学者组成,各自从事着自己感兴趣的工作,他们对人工智能是什么有不同的认识。
如果仅从技术的角度来看,人工智能要解决的问题是如何使电脑表现智能化,使电脑能支灵活方效地为人类服务。只要电脑能够表现出与人类相似的智能行为、就算是达到了目的,而不在乎在这过程中电脑是依靠某种算法还是真正理解了,这样,人工智能就是计算机科学中涉及研究、设计和应用智能机器的—个分支,人工智能的目标就是研究怎样用电脑来模仿和执行人脑的某些智力功能,并开发相关的技术产品,建立有关的理论。
除了上述的观点以外,人工智能领域中的心理学家、语言学家倾向于将重点放在用电脑去再现人脑思维的内部状态上.也就是要使电脑程产真正理解它所他的事情,就好保人脑一样去“思考问题”。
由于大家研究的内容与侧重点各不相同,因此对人工智能的认识也有一定的差异。但是,他们的认识又相互补充、相辅相成、共同构成了人工智能丰富多彩的研究层次与多样化的研究队伍。
(一)人工智能的理论于实践人工智能不仅仅是一个工程科目,同样也是一个科研主题,研究人员创立人工智能理论(人工智能程序能够做什么)并用数学分析和实验来验证。理论是可以通过数学抽象和定理证明来分析验证的,也可以通过开发程序、运行试验、分析结果进行经验性研究,这很像心理学家对接受实验者所做的实验,但复杂人工智能系统的行为是很难预测的。
人工智能的应用范围非常广泛。人们已经创建了人工智能程序,用于通过预测股市趋势来产生投资策略,诊断病人并给出治疗建议,以及控制工厂中的装配机器人。火星探测机器人的控制就采用了人工智能系统。
(二)人工智能概念著名的美国斯坦福大学人工智能研究中心尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”而另一个美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”这些说法反映了人工智能学科的基本思想和基本内容。即人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。
人工智能(ArtificialIntelligence,简称AI)是计算机学科的一个分支,二十世纪七十年代以来被称为世界三大尖端技术之一(空间技术、能源技术、人工智能)。也被认为是二十一世纪(基因工程、纳米科学、人工智能)三大尖端技术之一。这是因为近三十年来它获得了迅速的发展,在很多学科领域都获得了广泛应用,并取得了丰硕的成果,人工智能已逐步成为一个独立的分支,无论在理论和实践上都已自成一个系统。
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。
(三)人工智能的基础人类是通过自然语言来表达思想、知识、学习、交流等,为实现AI用机器模拟人的智能行为,显然,必须有适合于AI的知识获取、知识表示、知识推理的语言,编写相应的智能程序,以构成AI系统,即知识信息处理系统。自AI发展以来,由于AI应用领域的广泛性,已有十几种语言被应用,它们都是根据适用于所研究问题领域知识描述和处理而提出的。
二、人工智能原理(一)介绍人工智能的实现技术人工智能是实现具有智能的机器,尤其是具有智能的计算机程序的科学和工程技术。人工智能与用计算机理解人的智力的目标有一些关系,但它并不一定要使用生物学上的方法。
(二)人工智能的原理人工智能的科学研究要研究人的智慧的内部结构,相当于研究心理学的原理,这是一般人不大会去做的。大部分的人工智能研究集中在后者——工程实现上。知识:人的智能活动本质上就是获得和运用知识。知识是智能的基础,为了实现人工智能使机器具有智能就必须使它具有知识。表达:要采用适当的手段表达人的知识,然后才能存储到机器中去,这就是用知识表达要解决的问题。对知识进行表达就是把知识表示成便于计算机存储和利用的某种数据结构,知识表达方法又称为知识表示技术,其表示形式称为知识表示模式。
三、人工智能应用(一)人工智能的应用范围人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能的发展历史是和计算机科学与技术的发展史联系在一起的,人工智能学科研究的主要内容包括:知识表示、自动推理和搜索方法、机器学习和知识获取、知识处理系统、自然语言理解、计算机视觉、智能机器人、自动程序设计等方面。
(二)人工智能中的机器翻译机器翻译是利用计算机把一种自然语言转变成另一种自然语言的过程,用以完成这一过程的软件系统叫做机器翻译系统。虽然至今还没有一个实用、全面、高质量的自动翻译系统出现,不过也取得了很大的进展,特别是作为人们的辅助翻译工具,机器翻译已经得到大多数人的认可。
目前,国内的机器翻译软件不下百种,根据这些软件的翻译特点,大致可以分为三大类:词典翻译类、汉化翻译类和专业翻译类。在目前的情况下,计算机辅助翻译应该是一个比较好的实际选择。事实上,在很多领域中,计算机辅助人类工作的方式已经得到了广泛的应用,例如CAD软件。
机器翻译研究归根结底是一个知识处理问题,它涉及到有关语言内的知识、语言间的知识、以及语言外的世界知识,其中包括常识和相关领域的专门知识。随着因特网的普及与发展,机器翻译的应用前景十分广阔。作为人类探索自己智能和操作知识的机制的窗口,机器翻译的研究与应用将更加诱人。
(三)人工智能中的专家系统专家系统是一种模拟人类专家解决领域问题的计算机程序系统。专家系统内部含有大量的某个领域的专家水平的知识与经验,能够运用人类专家的知识和解决问题的方法进行推理和判断,模拟人类专家的决策过程,来解决该领域的复杂问题。
为了实现专家系统,必须要存储有该专门领域中经过事先总结、分析并按某种模式表示的专家知识(组成知识库),以及拥有类似于领域专家解决实际问题的推理机制(构成推理机)。
开发专家系统的关键是表示和运用专家知识,即来自领域专家的己被证明对解决有关领域内的典型问题有用的事实和过程。目前,专家系统主要采用基于规则的知识表示和推理技术。由于领域的知识更多是不精确或不确定的,因此,不确定的知识表示与知识推理是专家系统开发与研究的重要课题。
(四)人工智能模式识别模式识别就是通过计算机用数学技术方法来研究模式的自动处理和判读。这里,我们把环境与客体统称为“模式”,随着计算机技术的发展,人类有可能研究复杂的信息处理过程。用计算机实现模式(文字、声音、人物、物体等)的自动识别,是开发智能机器的一个最关键的突破口,也为人类认识自身智能提供线索。信息处理过程的一个重要形式是生命体对环境及客体的识别。对人类来说,特别重要的是对光学信息(通过视觉器官来获得)和声学信息(通过听觉器官来获得)的识别。这是模式识别的两个重要方面。市场上可见到的代表性产品有光学字符识别系统(OCR)、语音识别系统等。计算机识别的显著特点是速度快、准确性和效率高。识别过程与人类的学习过程相似。
一个综合应用的例子,一汽集团公司与国防科技大学最近合作研制成功“红旗轿车自主驾驶系统”(即无人驾驶系统),它标志着我国研制高速智能汽车的能力已达到当今世界先进水平。汽车自主驾驶技术是集模式识别、智能控制、计算机学和汽车操纵动力学等多门学科于一体的综合性技术,代表着一个国家控制技术的水平。红旗车自主驾驶系统采用计算机视觉导航方式,并采用仿人控制,实现了对红旗车的操纵控制。首先,摄像机将车前方的道路和车辆行驶情况输入到图像处理和图像识别系统。该系统识别出道路状况、前方车辆的相对距离和相对车速。接着,路径规划系统根据这些信息规划出一条合适路径,即决定如何开车。然后,路径跟踪系统根据需跟踪的路径,结合车辆行驶状态参数和车辆驾驶动力学约束,形成控制命令,控制方向盘和油门开启机构产生相应动作,使汽车按照规划好的路径前进,即按自主驾驶系统的规划路径前进。
四、发展方向能够造出这样的具有人类智能的机器,是科学家们一直的理想。人工智能这个科学就是研究和模拟人类的思维,最终做出一台能够像人类一样思考的机器。人工智能科学中有一个很著名的标准,叫做“图灵测试”。用这个标准能够非常简单准确地测定一台机器是否具有人一样的智能。这个测试大概就是通过几个人与一台待测试的机器之间进行对话。当然人与人之间是不能互相看到对方的,人也不能看到哪个是人哪个是机器,之间只有通过对话来交流。然后人与机器之间互相进行对话,对话内容主要是随便问一些问题。到最后,如果对话的人,还分不清与他对话的几个人与机器当中,哪个是机器,哪个是人,那么就可以断定这台机器具备人一样的智能。
然而,直到今天,还没有任何一台机器可以通过这个测试。而且,离通过测试的差距还非常之大。这个测试对于机器,真正的困难就难在要像人一样回答问题。例如随便问一个问题:“12乘以7再加821等于多少”。这个问题就很容易让机器“中计”。因为对于机器来说,这种数学计算只需要花一秒不到的时间就能得出正确的结果。但是如果你发现对方可以这样快且准确地得出结果,你会相信他是人么?人毕竟有人特有的思维水平,人有感情,有各种各样的性格,这个就很难在机器上实现。
诚然,能够做出这样的机器,的确是人工智能的目标。不过人工智能的研究单纯就是为了这个么?我个人认为,能够做出像人一样聪明的机器是件好事,不过如果要求机器做到人的某些不好的特性,例如,懒惰、贪婪、罪恶等等,就不必了,做了也是自掘坟墓。人工智能应该可以为人类而服务,能够帮助人解决各种问题。
其实做到像人类一样思考的机器,这个只是人工智能科学的其中一个部分,绝不是全部。通过人工智能的研究,领略到智能科学的真谛,解决各种科学难题,促进其它学科的发展,这个才算人工智能的精华!
例如,人工智能的子学科专家系统,就曾帮助过医学、采矿等等多个学科,帮助这些学科解决了很多难题。这个时候,人工智能就在某一领域表现出比一般人更加卓越的能力。
据我所知,人工智能还有许多十分有趣的子学科,例如神经网络、进化计算等等。这些科学也是以模仿人类的思维为初衷发展起来。但是这些科学在发展过程中,却收获了很多其它的成果。神经网络、进化计算都曾经解决过许多数学上的难题,它们与专家系统一样,为其它各个学科起了很大的促进作用。神经网络还帮助过人类解决指纹识别、面相识别、汉字识别等的难题。
五、结语人工智能研究将是21世纪早期逻辑学发展的主要动力源泉。人工智能研究必须建立在归纳逻辑基础之上,从而达到多领域交叉合作来共同促进人工智能研究的广泛而深远的发展。我们现在所涉及的基于逻辑归纳的人工智能以及机器学习和归纳学习的系统研究还处于初级阶段。正如有人所说,在未来的计算机归纳学习或发现的研究中,将归纳逻辑的某些理论、方法或系统与机器学习、不确定性推理、神经网络中对归纳逻辑的研究适当“嫁接”起来,以改进并逐步革新现有的归纳学习系统,促使机器学习中归纳学习的基础理论形成,并进一步从事归纳学习的基础理论与系统的研究和开发,这是人工智能科学研究中的一项重大任务。
参考文献[1]毕家祥,人工智能模型于智能系统
[2]王士同,人工智能教程.2006年8月
[3]邢传鼎,人工智能原理及应用.2005年02月
[4][美]ThomasDeanJamesAllenYiannisAloimonos.2004年06月
[5]侯广坤,人工智能概论.1993年05月
[6][英国]C.J.哈里斯,人工智能的应用.1992年02月
[7]马宪民,人工智能的原理与方法.2002年
[8]张玉志,人工智能与社会进步.1990年03月
[9]孙雅明,人工智能基础.1995年05月
[10]米汉著,人工智能程序设计(第二版)
[11]傅京孙,人工智能及其应用.1987年09月
[12]胡俊,游戏开发中的人工智能研究于应用
[13]王万森,人工智能的原理及应用.2000年09月
[14]任巍,人工智能技术在计算机游戏软件中的应用.200602
[15]山东工业大学自动化研究所,人工智能浅说.1984年04月
12345第二篇:人工智能论文8400字
浅谈人工神经网络学习
1、简介
作为动态系统辨识、建模和控制的一种新的、令人感兴趣的工具,人工神经网络(ArtificialNeuralNetworks,ANN)提供了一种普遍而且实用的方法从样例中学习值为实数、离散值或向量的函数。像反向传播(BACKPROPAGATION)这样的算法,使用梯度下降下来调节网络参数以最佳拟合由输入—输出对组成的训练集合。ANN学习对于训练数据中的错误健壮性很好,且已被成功的应用到很多领域,例如视觉场景分析、语音识别以及机器人控制等。
神经网络学习方法对于逼近实数值、离散值或向量的目标函数提供的一种健壮性很强的方法。对于某些类型的问题,如学习解释复杂的现实世界中的传感器数据,人工神经网络是目前知道的最有效的学习方法。例如,反向传播算法已在很多问题中取得了惊人的成功,比如学习识别手写字符、学习识别口语、学习识别人脸等。
1.1人工神经网络学习发展简史:
对人工神经网络的研究可以追溯到计算机科学的早期。McCulloch&Pitts(1943)提出了一个相当于感知器的神经元模型,20世纪60年代他们的大量工作探索了这个模型的很多变体。20世纪60年代早期Widrow&Hoff(1960)探索了感知器网络(他们称为“adelines”)和delta法则。Rosenblatt(1962)证明了感知器训练法则的收敛性。然而,直到20世纪60年代晚期,人们才开始清楚单层的感知器网络的表现能力很有限,而且找不到训练多层网络的有效方法。Minsky&Papert(1969)说明即使是像XOR这样简单的函数也不能用单层的感知器网络表示或学习,在整个20世纪70年代ANN的研究衰退了。
在20世纪80年代中期ANN的研究经历了一次复兴,主要是因为训练多层网络的反向传播算法的发明(Rumelhart&McClelland1986;Parker1985)。这些思想可以被追溯到有关的早期研究(例如,Werbos1975)。自从20世纪80年代,反向传播算法就成为应用最广泛的学习方法,而且人们也积极探索出了很多其他的ANN方法。在同一时期,计算机变得不在贵重,这允许人们试验那些在20世纪60年代不可能被完全探索的计算密集型的算法。
2、人工神经网络学习的国内外研究状况
随着人工神经网络20世纪80年代在世界范围内的复苏,国内也逐步掀起了研究热潮。l989年10月和11月分别在北京和广州召开了神经网络及其应用讨论会和第一届全国信号处理—神经网络学术会议;l990年2月由国内八个学会(中国电子学会、人工智能学会、自动化学会、通信学会、物理学会、生物物理学会和心理学会)联合在北京召开“中国神经网络首届学术会议”。这次大会以“八学会联盟,探智能奥秘为主题收到了300多篇学术论文,开创了中国人工神经网络及神经计算机方面科学研究的新纪元。经过十几年的发展,中国学术界和工程界在人工神经网络的理论研究和应用方面取得了丰硕成果,学术论文、应用成果和研究人员逐年增加.
在国际上,1987年,在美国加洲召开了第一届国际神经网络学会.此后每年召开两次国际联合神经网络大会(IJCNN).不久,该学会创办了刊物JournalNeuralNetworks,另有十几种国际著名的神经网络学术刊物相继问世,至此,神经网络理论研究在国际学术领域获得了其应有的地位。
作为人工神经网络学习的典型算法反向传播(BP)算法,近年来国内外学者对这一算法提出了一些改进。其中,由宋绍云、仲涛提出的BP人工神经网络网络的新算法解决了传统算法的局部极小及收敛速度慢的问题。该算法是在BP神经网络现有的基础上提出的一种新的算法,该算法的基本原理是任选一组自由权,通过解线性方程组求得隐层权,将选定的自由权与求得的权合在一起,就得到所需的学习权值。而BP人工神经网络自适应学习算法的建立则解决了BP神经网络结构参数、学习速率与初始权值的选取问题,并对传统的BP算法进行了改进,提出了BP神经网络自适应学习算法,又将其编制成计算机程序,使得输入节点、隐层节点和学习速率的选取全部动态实现,减少了人为因素的干预,改善了学习速率和网络的适应能力。计算结果表明:BP神经网络自适应学习算法较传统的方法优越,训练后的神经网络模型不仅能准确地拟合训练值,而且能较精确的预测未来趋势。基于遗传算法的人工神经网络学习避免了BP算法易陷入局部极小值、训练速度慢、误差函数必须可导、受网络结构的限制等缺陷。
人工神经网络的研究同样在实践中也有所发展。比如,基于人工神经网络的并行强化学习自适应路径规划,可以很好的应用于机器人蔽障系统。BP算法在雷达目标识别中的应用以及在超声检测中的应用等都是在BP算法改进的基础上实现的。
3、所选专题的研究意义与研究方法
从1946年第一台电子数字计算机问世以来直到现在,大多数信息处理都采用程序式计算方式。这种方式解题需要设计算法或规则,并正确的编制成软件,然后才能进行问题求解。这种解题方式必须考虑3个因素:
1问题的形式化;
2可进行计算的算法;
3计算的复杂性。
比较计算机和人的处理能力,其差别是惊人的。一方面,一个人能很容易识别面孔理解语言,而一台巨型机却很难识别出一棵树来。另一方面,用计算机进行计算,可以很快的得到答案,其计算能力大大超过了人。那么数字计算和辨识物体之间究竟有哪些差别呢?
辨识物体是不能简单明确的加以定义的。要识别一棵树,就必须给出树的全部定义。做出这样一种定义,等于要描述树的每一个可以想到的变量。这类问题构成了随机问题。所谓随机问题,就是那些需要具备某一系统的实际上每种可能状态的知识才能解答的问题。因此,为解决一个随机问题,就要求记忆所有可能的解答,当给定输入数据时,从所有可能的解答的集合中迅速的选出最合适的答案。而像数学一类的计算问题,其解答通常可以用一种算法简洁地表示出来,也就是说,可以用一个精确的指令系列来表示,该指令系列规定了如何处理输入数据以得到答案。
信息处理的一种新方法并不需要开发算法和规则,极大的减少了软件的工作量,这种方法称为神经网络。神经网络是一门崭新的信息处理学科,它从神经生理学和认知科学研究成果出发,应用数学方法研究并行分布的、非程序的、适应性的、大脑风格的信息处理的本质和能力。神经网络中主要的信息处理结构是人工神经网络。
神经信息处理是介于常规处理形式和人脑处理形式的中间处理形式。一方面,神经网络企图模仿人脑的功能,而另一方面许多实现技术又是常规的。表1-1给出了这3种信息处理范型的主要特点。神经信息处理许多特性与人脑相似,诸如联想、概括、并行搜索、学习和灵活性。
表1-13种信息处理范型
人脑处理信息的特点如下:
1大规模并行处理。人脑神经元之间传递神经冲动是以毫秒计的,比普通的电子计算机慢得多。但人们通常能在1ms内对外界事物作出判断和决策。这对传统的计算机或人工智能是做不到的。由此可知,人脑的“计算”必定是建立在大规模并行处理的基础上。人善于在复杂环境下作出判断,从整体上识别事物。神经网络的大规模并行处理与多处理机构成的并行系统是不同的。
2具有很强的容错性,善于联想、概括、类比和推广。每天有大量神经细胞正常死亡,但不影响大脑正常的功能;大脑局部损伤会引起某些功能衰退,但不是功能突然丧失。在计算机中,元器件的局部损坏,或者程序中的微小错误都可能引起严重的后果,即表现出极大的脆弱性。人脑与计算机信息处理的巨大差别在于对信息的记忆和处理方式不同。计算机的模式是信息局部储存,按程序提取有关的信息,送到运算器处理。大脑中信息的记忆,特别是长期记忆是通过改变突触的效能实现的,即信息存储在神经元间连接强度的分布上,信息的记忆和处理是合二为一的。这一点,神经网络与大脑信息处理方式及其相似。
3具有很强的自适应能力。人脑功能受先天因素制约,但后天因素,如经历、训练、学习等也起重要作用。这表明人脑具有很强的自适应性和自组织性。神经网络与符号处理不同,前者强调系统的自适应或学习过程,同一网络因学习方法及内容不同,可具有不同的功能;符号处理强调程序编写,系统的功能取决于编写者的知识和能力。
由上可知,脑是最复杂、最完美、最有效的一种信息处理装置,人们正以极大的兴趣研究它的结构和机理。这种研究与20世纪初的物理学和20世纪50年代的分子生物学一样,正酝酿着重大的突破,而这一突破将给整个科学的发展带来巨大而深远的影响。人们对大大脑的认识已深入到探索脑的核心问题,鉴定出了一系列涉及脑工作的重要分子,在感知、行为、学习和记忆方面都取得了重要进展。这表明人们将有可能最终揭开大脑这个人体最复杂系统的奥秘,为现代科技发展寻找新的道路。借助大脑工作原理,有可能使信息处理获得新的突破。
正因为如此,神经科学受到世界各发达国家的高度重视。美国国会通过决议将1990年1月5日开始的10年定为“脑的十年”。国际脑研究组织号召它的成员国将“脑的十年”变为全球行动。美国国防部高级研究计划局(DARPA)制定的8年研究计划中,神经网络是重要的方向。1986年日本政府提出了“人类前沿科学计划”(HFSP)研究计划,1992年提出“真实世界计算”(RWC)研究计划。德国人从1988年开始执行“神经信息论”的研究计划。
脑科学、神经生理学、病理学主要研究神经网络的生理机理,如神经元、突触、化学递质、脑组织等的构成和工作过程。而认知科学、计算机科学主要探索人脑信息处理的微结构理论,寻求新的途径,解决当前计算机和传统人工智能难以处理的问题。以此为背景,以人工神经网络为基础,形成了神经网络的新学科。
目前,对大脑思维的过程了解仍然很肤浅,人工神经网络模拟的研究还很不充分,人们面临的是一个充满未知的新领域。神经网络将在基本原理方面进行更深刻的探索。
神经网络的发展与神经科学、认知科学、计算机科学、人工智能、信息科学
机器人学、微电子学、光计算、分子生物学等有关,是一门新兴的边缘交叉学科。神经网络研究的主要目的如下:
1理解脑系统为何具有智能。这些计算与符号表示的形式操作处理不同,人脑是如何组织和实施这些计算的。
2研究各种强调“计算能力”的神经网络模型,并不着重于这些模型的生物学保真程度
3研究大规模并行自适应处理机理。
4研究神经计算机的体系结构和实现技术。
4、适合神经网络学习的问题
人工神经网络学习非常适合于这样的问题:训练集合为含有噪声的复杂传感器数据,例如来自摄像机和麦克风的数据。它也适用于需要较多符号表示的问题,例如决策树学习任务。这种情况下ANN和决策树学习经常产生精度大体相当的结果。反向传播算法是最常用的ANN学习技术。它适合具有以下特征的问题:
(1)实例是用很多“属性-值”对表示的:要学习的目标函数是定义在可以用向量描述的实例之上的,向量由由预先定义的特征组成。这些输入属性之间可以高度相关,也可以相互独立。输入值可以是任何实数。
目标函数的输出可能是离散值、实数值或者由若干实数属性或离散属性组成的向量:例如在ALVINN(Pomerleau(1993)的ALVINN系统是ANN学习的一个典型实例,这个系统使用一个学习到的ANN以正常的速度在高速公路上驾驶汽车。)
(2)系统中输出的是30属性向量,每一个分量对应一个建议的驾驶方向。每个输出值是0和1之间的某个实数,对应于在预测相应驾驶方向时的置信度。我们也可以训练一个单一网络,同时输出行驶方向和建议的加速度,这只要简单的把编码这两种输出预测的向量连接在一起就可以了。
(3)训练数据可能包含错误:ANN学习算法对于训练数据中的有非常好的健壮性。
(4)可容忍长时间的训练:网络训练算法通常比像决策树学习这样的算法需要更长的训练时间。训练时间可能从几秒到几小时,这要看网络中权值的数量、要考虑的训练实例的数量以及不同学习算法参数的设置等因素
(5)可能需要快速求出目标函数值:尽管ANN的学习时间相对较长,但对学习到的网络求值以便把网络应用到后续的实例通常是非常快速的。例如,Alvinn在车辆向前行驶时,每秒应用它的神经网络若干次,以不断的更新驾驶方向。
(6)人类能否理解学到的目标函数是不重要的:神经网络学习方法学习到得权值经常是人类难以解释的。学到的神经网络比学到的规则难以传达给人类。
5、我对人工神经网络学习研究的认识及观点
5.1人工神经网络学习的几种算法
1.有监督Hebb算法
2.单层感知器
3.梯度(LMS)算法
4.BP算法
这几种算法中,BP算法应用最为广泛。
5.2基于反向传播网络的学习
反向传播算法是一种计算单个权值变化引起网络性能变化值得较为简单的方法。由于BP算法过程包含从输出节点开始,反向地向第一隐含层(即最接近输入层的隐含层)传播由总误差引起的权值修正,所以称为“反向传播”。
5.2.1反向传播网络的结构
鲁梅尔哈特(Rumelhart)和麦克莱兰(Meclelland)于1985年发展了BP网络学习算法,实现了明基斯的多层网络设想。BP网络不仅含有输入节点和输出节点,而且还含有一层或多层隐(层)节点,如图5.1所示输入信号首先向前传递到隐节点,经过作用后,再把隐节点的输出信息传递到输出节点,最后给出输出结果。节点的激发函数一般选用S型函数。
BP算法的学习过程由正向传播和反向传播组成。在正向传播过程中,输入信息从输入层经隐单元层逐层处理后,传至输出层。每一层神经元的状态只影响下一层神经元的状态。如果在输出层得不到期望输出,那么就转为反向传播,把误差信号沿原连接路径返回,并通过修改各层神经元的权值,使误差信号最小。
图5.1BP网络
5.2.2反向传播学习算法
(1)选取比率参数r。
(2)进行下列过程直至性能满足要求为止。
1对于每一训练(采样)输入;
(a)计算所得输出,
(b)按下式计算输出节点的值
(c)按下式计算全部其他节点
(d)按下式计算全部权值变化
2对于所有训练(采样)输入,对权值变化求和,并修正各权值。
权值变化与输出误差成正比,作为训练目标输出只能逼近1和0两值,而绝不可能达到1和0值。因此,当采用1作为训练目标值作为训练时,所有输出实际上呈现出大于0.9的值;而当采用0作为目标值进行训练时,所有输出实际上呈现出小于0.1的值;这样的性能就被认为是满意的。
反向传播算法是一种很有效的学习算法,它已解决了不少问题,成为神经网络的重要模型之一。反向传播算法框图如图5.2所示。
图5.2反向传播算法框图
5.2.3反向传播算法性能分析
反向传播算法作为指导多层感知器训练的最流行的算法而出现,基本上,它是一个梯度(导数)的技术而不是一个最优化技术。其具有两个明显的性质:局部计算简单;可实现权值空间的随机梯度下降。多层感知器背景下的BP学习的这两个属性导致了它的优点和缺点。
1.BP网络的优点
1BP网络实质上实现了一个从输入到输出的映射功能,而数学理论已经证明它具有实现任何复杂非线性映射的功能。这使得它特别适合于求解内部机制复杂的问题。当隐含神经元可以任意配置时,BP网络能记忆任意给定的学习样本,再现样本输入到样本输出的联想关系。BP网络的记忆容量与隐含神经元的数量相关,BP网络的记忆容量可通过增加隐含神经元而得到扩充。
2BP网络能通过学习带正确答案的实例集自动提取“合理的”求解规则,即具有自学习能力。通过学习,BP网络能在任意精度范围内表达复杂的非线性映射。
3BP网络具有泛化能力,能从样本数据中学习知识,抽象一般性规律。BP网络的泛化能力既与自身记忆容量相关,又与学习样本具有的信息量相关。
2.BP网络的问题
传统的BP网络在诸多领域得到广泛应用,也取得一定的成效,但在实际应用中有时处理结果并不理想,还存在诸多问题。究其原因,主要是BP网络还存在许多固有的缺点,这不只是多层前向BP网络的问题。
1BP算法的学习速度很慢,其主要原因有:
•由于BP算法本质上为梯度下降法,而它所要优化的目标函数又非常复杂因而必然会出现“锯齿形现象”,这使得BP算法低效。
•存在麻痹现象。由于优化的目标函数很复杂,它必然会在神经元输出接近0和1的情况下出现一些平坦区。在这些区域内,权值误差改变很小,使训练过程几乎停顿。
•为了使网络执行BP算法,不能用传统的一维搜索法求每次迭代的步长,而必须把步长的更新规则预先赋予网络,而这种方法将引起算法低效。
2网络训练失败的可能性较大,其原因有:
•从数学角度看,BP算法为一种局部搜索的优化方法,但它要解决的问题为求解复杂非线性函数的全局极值,因此算法很有可能陷入局部极值,使训练失败。
•网络的逼近、推广能力同学习样本的典型性密切相关,而从问题中选取典型样本实例组成训练集是一个很困难的问题。
3难以解决应用问题的实例规模和网络规模间的矛盾。这涉及网络容量的可能性与可行性的关系问题,即学习复杂性问题。
4网络结构的选择尚无一种统一而完整的理论指导,一般只能由经验决定。为此,有人称神经网络的结构选择为一种艺术。而网络的结构直接影响网络的逼近能力及推广性质。因此,应用中如何选择合适的网络结构是一个重要的问题。
5新加入的样本要影响已学习成功的网络,而且描述每个输入样本的特征的数目也必须相同。
6网络的预测能力(也称泛化能力)与训练能力(也称逼近能力)的矛盾。一般情况下,训练能力差时,预测能力也差,并且一定程度上,随训练能力的提高,预测能力反而下降,即出现所谓“过拟合”现象。此时,网络学习了过多的样本细节,但是不能反映样本内含的规律。
6.小结
1、人工神经网络学习为学习实数值和向量值函数提供了一种实际的方法,对于连续的和离散值得属性都可以使用,并且对训练数据中的噪声具有很好的健壮性。反向传播算法是最常见的网络学习算法,这已经被成功应用在很多学习任务中,比如手写识别和机器人控制。
2、反向传播算法考虑的假设空间是固定连接的有权网络所能表示的所有函数的空间。包含三层单元的前馈网络能够以任意精度逼近任意函数,只要每一层有足够数量的单元。即使是一个实际大小的网络也能够表示很大范围的高度非线性函数,这使得前馈网络成为学习预先未知的一般形式的离散和连续函数的很好选择。
3、反向传播算法使用梯度下降方法搜索可能假设的空间,迭代减小网络的误差以拟合训练数据。梯度下降收敛到训练误差相对网络权值的局部极小值。通常,梯度下降是一种有应用潜力的方法,它可用来搜索很多连续参数的假设空间,只要训练误差是假设参数的可微函数。
4、反向传播算法最令人感兴趣的特征之一,是它能够创造出网络输入中没有明确出现的特征。确切的讲,多层网络的隐藏层能够表示对学习目标函数有用的但隐含在网络输入中的中间特征。
5、过度拟合训练是ANN学习中的一个重要问题。过度拟合导致网络泛化到新的数据时性能很差,尽管网络对于数据表现非常好。交叉验证方法可以用来估计梯度下降搜索的合适终止点,从而最小化过度拟合的风险。
任何新生事物的成长都不是一帆风顺的。人工神经网络学习也不例外。但是,经过长时间的研究发展,神经网络学习已经逐步成长起来了,在未来的发展中可能会遇到新的困难,甚至遭受较大的挫折。广大研究者也可能会为此承受巨大风险。但是作为科学研究者,我们应持有乐观的态度,为神经网络学习的发展做贡献。
参考文献:
【1】宋绍云,仲涛.BP人工神经网络的新型算法.人工智能及识别技术,2009,5(5)
【2】李晓峰,徐玖平,王荫清,贺昌政.BP人工神经网络自适应学习算法的建立及其应用.系统工程理论与实践.2004,5(5)
【3】李建珍.基于遗传算法的人工神经网络学习算法.西北师范大学学报(自然科学版).2002,38(2)
【4】耿晓龙,李长江.基于人工神经网络的并行强化学习自适应路径规划.科学技术与工程.2011,11(4)
【5】蔡自兴,徐光祐.人工智能及其应用.北京:清华大学出版社,2010
【6】史忠植.神经网络.北京:高等教育出版社,2009
【7】(美)TomM.Mitchell.曾华军张银奎等译.机器学习.北京:机械工业出版社,2003
【8】涂序彦.人工智能:回顾与展望.中国人工智能学会.北京:科学出版社,2006
【9】朱福喜,朱三元,伍春香.人工智能基础教程.北京:清华大学出版社,2006
+更多类似范文┣ 工程测量论文4000字┣ 工程实习论文2900字┣ 铁道工程论文2300字┣ 工程测量论文2200字┣ 更多工程论文范文