人工智能导论
人工智能导论人工智能定义及其研究目标人工智能发展历史知识及其表示知识图谱人工智能关键技术机器学习(ML)神经网络与深度学习自然语言处理计算机视觉语音处理人工智能行业应用人工智能定义及其研究目标智能至少包括三个方面能力:
智能具有感知能力智能具有记忆与思维能力智能具有学习和适应能力人工智能的研究目标是让机器像人一样具有能够感知、获取知识、储存知识、推理思考、学习、行为等能力
实现程度对应备注弱人工智能拟人擅长于单方面强人工智能类人能够执行通用任务超强人工智能超越人与人类智能完全一样,甚至局部超过人类智能的智能系统人工智能的三大学派:
符号主义学派逻辑主义,心理学派或计算机学派;抽象化,符号化连接主义学派仿生学派或生理学派;研究人脑智能,神经网络行为主义学派进化主义,控制论学派;感知-动作模型人工智能发展历史已诞生六十多年,分7个阶段:
孕育期(1956年以前)形成期(1956-1969年)第一次寒冬(20世纪70-80年代)繁荣期(1980-1987年)第二次寒冬(1987-1993年)储备期(1993-2011年)爆发期(2012-现在)知识及其表示知识是人们在长期的生活实践中、在科学研究及实践中积累起来的对客观世界的认识与经验。反应了信息间的某种关系
知识的特性:
相对正确性不确定性由随机性引起的不确定性由模糊性引起的不确定性由经验引起的不确定性由不完全性引起的不确定性可表示性与可利用性1.产生式表示法:
产生式确定性规则的产生式表示不确定性规则的产生式表示(有置信度)确定性事实的产生式表示(三元组)不确定性事实的产生式表示(四元组)产生式系统2.框架表示法3.状态空间表示法状态空间可用一个四元组表示
知识图谱知识图谱发展的三个阶段:
知识图谱的起源阶段(1955-1977年)知识图谱的发展阶段(1977-2012年)繁荣阶段(2012年-至今)谷歌通过知识图谱改善了搜索引擎的性能知识需要满足三个核心要素:合理性,真实性,被相信
知识图谱旨在以结构化的形式描述客观世界中存在的概念、实体及其间的复杂关系
本体一般由概念、实例和关系构成
万维网知识描述语言:
可扩展标记语言XML可根据实际需要对标签进行扩展,XML本质上是一个树形结构,资源、属性、陈述资源描述框架RDF与链接技术保证了语义网的内容有准确的含义保证了语义网的内容可以被计算机理解并处理可以通过各种网页中的内容集成帮助进行自动数据处理典型的知识图谱:
维基百科BableNetXLORE专家系统:(有局限性)可以用属性图表示知识图谱的属性语义搜索农业上的应用->精准农业电信行业->客户关怀媒体发布->自动写作机器人
中文医学知识图谱分析CMeKG多视图树状结构
结点触发事件
实体结点UMLS结点其他结点知识图谱构建工具
医学文本分词医学关系抽取医学描述框架常见的英文知识库:
YAGO(德国马普研究所)NELL(卡内基梅隆大学)MicrosoftConceptGraph(以概念层次体系为中心)人工智能关键技术机器学习:
学习模式监督学习无监督学习强化学习学习方法传统机器学习深度学习(卷积,循环神经网络)常见算法迁移学习主动学习演化学习自然语言处理:
机器翻译语义理解问答系统自然语言处理面临的四大挑战:
在词法、句法、语义、语用和语音等不同层面存在不确定性新的词汇、术语、语义和语法导致未知语言现象的不可预测性数据资源的不充分使其难以覆盖复杂的语言现象语义知识的模糊性和错综复杂的关联性难以用简单的数学模型描述,语意计算需要参数庞大的非线性计算人机交互
语音交互语言交互过程:语音采集语音识别语义理解语音合成情感交互体感交互惯性感测光学感测光学联合感测脑机交互信号采集特征提取命令输出计算机视觉:
视频编解码计算成像学图像理解(浅层,中层,高层理解)三维视觉动态视觉视频编解码无损压缩有损压缩生物特征识别:(辨认,确认)
注册阶段标识阶段指纹识别人脸识别(检测定位,面部特征提取,人脸确认)虹膜识别(虹膜图像分割,虹膜区域归一化,特征提取,识别)静脉识别声纹识别步态识别虚拟现实(VR)增强现实(AR)
获取与建模技术分析与利用技术交换与分发技术展示与交互技术标准与评价体系机器学习(ML)监督学习:使用已知正确答案的实例来训练网络应用举例:分类问题,回归问题算法举例:支持向量机(SVM),朴素贝叶斯,逻辑回归,K-近邻(KNN),决策树,随机森林,AdaBoost,线性判别分析(LDA)。深度学习大部分非监督式学习具有数据集但无标签的情况。可推出数据的内部结构常见应用场景:关联规则的学习以及聚类等算法举例:Apriori算法以及k-Means算法半监督式学习输入数据部分标记,部分未标记。可进行预测应用场景:分类和回归常见算法:图论推理算法,拉普拉斯支持向量机等弱监督学习有多个标记的数据集合。已知弱标签学习强标签人工神经网络(ANN)
基本人工神经元模型内部结构:加法器、偏差值、激活函数基本人工神经网络及其结构人工神经网络的学习机理决策树的生成是一个递归过程
特征选择决策树生长剪枝神经网络与深度学习自然语言处理计算机视觉语音处理人工智能行业应用人工智能导论复习
dm8基础知识及常见问题解决(linux)CSDN-Ada助手:非常感谢您分享关于dm8基础知识及常见问题解决的博客!我们非常期待您能继续分享您在其他技术领域的经验和见解。作为CSDN博客小助手,我为您推荐一篇博客主题:“如何在Linux系统中优化Web应用性能”。相信这将会是我们社区中的一篇非常有价值的博客,期待您的分享!为了方便博主创作,提高生产力,CSDN上线了AI写作助手功能,就在创作编辑器右侧哦~(https://mp.csdn.net/edit?utm_source=blog_comment_recall)诚邀您来加入测评,到此(https://activity.csdn.net/creatActivity?id=10450&utm_source=blog_comment_recall)发布测评文章即可获得「话题勋章」,同时还有机会拿定制奖牌。
机器学习——K-Means聚类算法及其应用2201_75865865:报错怎么办呀?运行不了
人工智能导论笔记(第六章智能计算及应用)翊坤宫在逃蟹粉酥:
二叉树的遍历(力扣)ctotalk:学习
二叉树的遍历(力扣)L_imbo:欢迎各位指正
人工智能导论(第4版)
本书是一本基础性强、可读性好、适合讲授的人工智能教材。读者通过学习本书,能够掌握人工智能的基本知识,并能了解人工智能研究的一些前沿内容,为进一步学习人工智能理论与应用奠定基础。
全书共11章。第1章绪论;第2章知识表示;第3章确定性推理方法;第4章不确定性推理方法;第5章搜索求解策略;第6章智能计算及其应用;第7章专家系统与机器学习;第8章人工神经网络及其应用;第9章智能体与多智能体系统;第10章自然语言处理及其应用;第11章人工智能在游戏设计中的应用。附录中给出了本书部分习题的简要解答和实验指导书。
本书可作为电气信息类、机械类、电子信息科学类以及其他专业的本科生学习人工智能课程的教材。由于书中几大部分内容相对独立,教师可以根据课程计划灵活选择相关内容。
【学习笔记】人工智能导论
考试题型:一、选择2:20二、填空5:10主观题改成填空题三、趣味编程题,10分
第0章绪论图灵测试1950年图灵发表的《计算机与智能》中设计了一个测试,用以说明人工智能的概念。
希尔勒的中文屋子证明:即使通过图灵测试也不能说明计算机能思维。
人工智能三大学派:符号主义学派方面(专家系统、知识工程)连接主义学派(神经网络)行为主义学派(进化算法)人工智能的发展简史人工智能研究的经典课题
人工智能研究的新课题
第1章搜索技术根据是否使用启发式信息分为:盲目搜索启发式搜索根据问题的表示方式分为:状态空间搜索状态空间搜索是用状态空间法来求解问题所进行的搜索与或树搜索与/或树搜索是指用问题规约方法来求解问题时所进行的搜索。
盲目搜索一般图搜索算法中,提高搜索效率的关键在于优化OPEN表中节点的排序方式。一种简单的排序策略就是按预先确定的顺序或随机地排序新加入到OPEN表中的节点,常用的方式是深度优先和宽度优先。1、深度优先搜索算法深度优先搜索的特点:一般不能保证找到最优解当深度限制不合理时,可能找不到解,可以将算法改为可变深度限制最坏情况时,搜索空间等同于穷举与回溯法的差别:图搜索是一个通用的与问题无关的方法
有限深度搜索和迭代加深搜索
2、宽度优先搜索算法宽度优先搜索的特点:当问题有解时,一定能找到解当问题为单位耗散值,且问题有解时,一定能找到最优解方法与问题无关,具有通用性效率较低属于图搜索方法
3、启发式搜索:利用知识来引导搜索,达到减少搜索范围,降低问题复杂度的目的。搜索过程中,要对OPEN表进行排序,需要有一种方法来计算待扩展节点有希望通向目标节点的不同程度。
4、A算法:g*(n):从s到n的最短路径的耗散值h*(n):从n到g的最短路径的耗散值f*(n)=g*(n)+h*(n):从s经过n到g的最短路径的耗散值g(n)、h(n)、f(n)分别是g*(n)、h*(n)、f*(n)的估计值
A算法的思想算法A的设计与一般图搜索类似,划分为二个阶段:1、初始化2、搜索循环MOVE-FIRST(OPEN)-取出OPEN表首的节点n⑥扩展出n的子节点,插入搜索图G和OPEN表对每个子节点ni,计算f(n,ni)=g(n,ni)+h(ni)⑦适当的标记和修改指针(子节点->父节点)(i)全新节点:f(ni)=f(n,ni)(ii)已出现在OPEN表中的节点(iii)已出现的CLOSE表中的节点IFf(ni)>f(n,ni)THEN修改指针指向新父结点nf(ni)=f(n,ni)⑧排序OPEN表(评价函数f(n)的值排序)5、爬山法的思想(g(n)=0)6、如果对于任何n,当h(n)=0时,A算法就成为了动态规划算法。7、A*算法8、数码问题的A*算法定理1.4:设对同一个问题定义了两个A*算法A1和A2,若A2比A1有较多的启发信息,即对所有非目标节点有h2(n)>h1(n),则在具有一条从s到t的路径的隐含图上,搜索结束时,由A2所扩展的每一个节点,也必定由A1所扩展,即A1扩展的节点数至少和A2一样多。因A算法第6步对ml类节点可能要重新放回到OPEN表中,因此可能会导致多次重复扩展同一个节点,导致搜索效率下降。
第2章与或图搜索问题1、基本概念与或图是一个超图,节点间通过连接符连接。
能解结点:
终节点是能解节点若非终节点有“或”子节点时,当且仅当其子节点至少有一能解时,该非终节点才能解。若非终节点有“与”子节点时,当且仅当其子节点均能解时,该非终节点才能解。
不能解结点:
没有后裔的非终节点是不能解节点。若非终节点有“或”子节点,当且仅当所有子节点均不能解时,该非终节点才不能解。若非终节点有“与”子节点时,当至少有一个子节点不能解时,该非终节点才不能解。对与或图的搜索,是通过对局部图的评价来选择待扩展的节点。
2、AO*算法算法划分二个阶段:1、初始化建立只包含初始状态节点n0的搜索图G:={n0};待扩展局部解图集LGS:={};2、搜索循环选择和扩展LGS中的局部解图:④选择LGS中fi(n0)最小的待扩展解图G’;⑤随机选择G’中一个非终节点的叶节点作为n;⑥扩展n建立K-连接,子节点ni并加入G;计算子节点ni的f(ni)=h(ni)⑦若n存在j个K-连接LGS中删除G’将j个新的局部解图加入LGS;精化新局部解图代价的估计:用公式f(n)=K+h(n1)+h(n2)+…+h(nk)取代原先的f(n);递归地作用到初始节点n0;传递节点的能解性:标记作为终节点的子节点为能解节点;递归地传递节点的能解性到初始节点n03、博弈问题特点:双人,一人一步,双方信息完备,零和4、极小极大搜索思想:(1)设博弈的双方中一方为A,另一方为B。为一方(如A)寻找最优行动方案。(2)为了找到当前的最优行动方案,需要对各个可能的方案所产生的后果进行比较。(3)为计算得分,需要根据问题的特性信息定义一个估价函数,用来估算当前博弈树端节点的得分。(4)当端节点的估值计算出来后,再推算出父节点的得分,方法是:对“或”节点,选其子节点中一个最大的得分作为父节点的得分,这是为了使自己在可供选择的方案中选一个对自己最有利的方案;对“与”节点,选其子节点中一个最小的得分作为父节点的得分,这是为了立足于最坏的情况。(5)如果一个行动方案能获得较大的倒推值,则它就是当前最好的行动方案。
一字棋第一阶段搜索树例子5、α-β剪枝采用的是深度优先策略进行搜索α-β过程就是把生成后继和倒推值估计结合起来,及时剪掉一些无用分支,以此来提高算法的效率。
α-β交替
在节点A处,已生成5个子节点,并且A处的倒推值等于-1(此时是另一方走,应考虑最坏的情况,选极小)轮到B,生成第一个节点C静态值为-1,那么B的倒推值≤-1,B的其他后继节点可以不用管了,即B处β≤-1β值小于等于父节点的α值时的情况,实际上当某个MIN节点的β值不大于它的先辈的MAX节点(不一定是父节点)的α值时,则MIN节点就可以终止向下搜索。同样,当某个节点的α值大于等于它的先辈MIN节点的β值时,则该MAX节点就可以终止向下搜索。第3章谓词逻辑与归结原理1、基本概念合取范式:命题、命题和的与,如:PΛ(P∨Q)Λ(~P∨Q)
子句集S:合取范式形式下的子命题(元素)的集合比如上面的子句集S:S={P,P∨Q,~P∨Q}
归结式:消除互补对,求新子句→得到归结式。如子句:C1,C2,归结式:R(C1,C2)=C1ΛC2
归结过程
将命题写成合取范式求出子句集对子句集使用归结推理规则归结式作为新子句参加归结归结式为空子句□,S是不可满足的(矛盾),原命题成立。(证明完毕)谓词的归结:除了有量词和函数以外,其余和命题归结过程一样。前束范式定义:公式A是一个前束范式,如果A中的一切量词都位于该公式的最左边(不含否定词),且这些量词的辖域都延伸到公式的末端。
SKOLEM标准:消去量词后的谓词公式。
置换:可以简单的理解为是在一个谓词公式中用置换项去置换变量。
置换的合成合一:可以简单地理解为“寻找相对变量的置换,使两个谓词公式一致”。
2、掌握将谓词逻辑转为子句集。例题:转化为谓词逻辑公式转化为子句形式
3、掌握归结原理证明命名和求解问题。例题:证明命名第一步:问题用谓词表示第二步:转化为子句形式第三步:归结
例题:求解问题先证明老师存在加辅助谓词ANS()
归结过程中的控制策略删除策略采用支撑集线性归结第4章知识表示逻辑表示法一阶谓词逻辑是谓词逻辑中最直观的一种逻辑谓词逻辑规范表达式:P(x1,x2,x3,…),这里P是谓词,xi是主体与客体。
产生式规则表示法产生式系统的基本特征:
一组规则,即产生式本身。每个规则分左边右边。如:天上下雨→地上湿(一般左边表示情况,即什么条件。发生时产生式被调用。通常用匹配方法和式情况。匹配成功时,执行右边规定的动作。)数据库存放的数据是构成产生式的基本元素,又是产生式作用的对象。这里的数据是广义的常量、变量、多元组谓词、表、图像等。往往是事实或断言——知识元一个解释程序从匹配成功的规则(可能不止一个)中选出一个加以执行。产生式系统基本结构工作存储器(数据库):存放当前已知的数据,包括推理过程中形成的中间结论。数据是广义的,可以是常量、多元数组、谓词、表示结构等。产生式规则:每条产生式规则分为左右两个部分。左部表示激活该产生式规则的条件,右部表示调用该产生式规则后所作的动作。条件是一组复杂的模式,规则之间的控制也不是语句的传递,而且满足条件的规则被激活但不一定立即执行,取决于产生式系统的冲突消解策略。规则解释程序
匹配器:判断规则条件是否成立。冲突消解器:选择可调用的规则。解释器:执行规则的动作。并且在满足结束条件时终止产生式系统运行。推理方法:正向、反向、双向、与或树
优点:模块性。规则与规则之间相互独立灵活性。知识库易于增加、修改、删除自然性。方便地表示专家的启发性知识与经验透明性。易于保留动作所产生的变化、轨迹缺点:知识库维护难。效率低。为了模块一致性。理解难。由于规则一致性彼此之间不能调用。应用实例:用于化工工业测定分子结构的DENDRAL用于诊断脑膜炎和血液病毒感染的MYCIN估计矿藏的PROSPECTOR语义网络表示法表示形式每一个要表达的事实用一个“结点”表示,而事实之间的关系用“弧线”表示。即,有向图表示的三元组,(结点1,弧,结点2)连接而成。
类属关系:A-Kind-of:表示一个事物是另一个事物的一种类型A-Member-of:表示一个事物是另一个事物的成员Is-a:表示一个事物是另一个事物的实例包含关系(聚类关系):(它和类属关系的最主要的区别就是包含关系一般不具备属性的继承性。)Part_of:表示一个事物是另一个事物的一部分属性关系:Have:表示一个结点具有另一个结点所描述的属性Can:表示一个结点能做另一个结点的事情位置关系:Located-on:一物在另一物之上Located-at:一物在何位置Located-under:一物在另一物之下Located-inside:一物在另一物之中Located-outside:一物在另一物之外相近关系:Similar-to:相似Near-to:接近时间关系:Before:表示一个事件在一个事件之前发生After:表示一个事件在一个事件之后发生。多元逻辑关系:
框架表示法框架之间的关系框架也分为类框架和实例框架。通过引入类-超类(AKO)及实例-类(ISA)关系来表示框架之间的包含关系和属于关系。框架理论将知识看成相互关系的成块组织。推理方法:匹配:和语义网络一样遵循匹配原理。槽计算:继承(属性值、属性、限制),附加过程,即附加在数据结构上,启动时计算槽值。脚本表示法脚本方式是采用一个专用的框架,用来表示特定领域的知识。脚本通过一些元语作为槽名来表代要表示的对象的基本行为。有些像电影剧本。第5章机器学习1、决策树学习决策树学习是以实例为基础的归纳学习。从一类无序、无规则的事物(概念)中推理出决策树表示的分类规则。过程:1建立决策树,利用训练样本生成决策树模型。开始,数据都在根节点递归的进行数据分片2使用决策树对未知数据进行分类按照决策树上采用的分割属性逐层往下,直到一个叶子节点
2、ID3的基本思想构造决策树,决策树的每个节点对应一个非类别属性,每条边对应该属性的每个可能值。以信息熵的下降速度作为选取测试属性的标准,即所选的测试属性是从根到当前节点的路径上尚未被考虑的具有最高信息增益的属性。例题:第一步:计算适不适合运动的分类样本期望第二步:计算属性天气的熵第三步:计算信息增益计算结果信息增益从大到小为:天气、湿度、风况、温度,则决策树为:
3、朴素贝叶斯分类因为P(X)是常量固定,所以只要看上面的表达式最大又X的各个特征值独立:P(X|Ci)*P(Ci)=P(X1|Ci)P(X2|Ci)……P(Xn|Ci)*P(Ci)
4、神经网络学习的基本概念采用物理可实现的系统来模仿人脑神经细胞的结构和功能的系统。人工神经网络的模型:神经元每一个细胞处于两种状态。突触联接有强度。多输入单输出。实质上传播的是脉冲信号,信号的强弱与脉冲频率成正比。
其中f称为特性函数,主要的特性函数有:二值函数,S形函数,分段函数其中二值函数的定义为:S型函数的定义为:分段函数的定义为:
5、神经网络的分类、属性、优点分类(1)前馈网络:每层只与前层相联接。信号由输入层到输出层单向传输。如BP网络,感知器(2)反馈型全互联网络:所有计算单元之间都有联接。如:Hopfield网络
神经网络的属性非线性,非局域性,非定常性,非凸性。
神经网络的优点并行性;分布存储;容错性;学习能力
6、前馈型神经网最初称之为感知器。应用最广泛的一种人工神经网络模型,最要原因是有BP学习方法。
简单(单层)感知器引入的学习算法称之为误差学习算法
多层感知器的输入输出关系与单层感知器完全相同。前一层的输出是下一层的输入。也被称为BP网络8、BP(反向传播学习算法)采用BP算法学习时要求传递函数为有界连续可微函数如sigmoid函数。先求误差,用梯度下降的方法求误差的传递,从后往前算。
BP学习算法是由正向传播和反向传播两部分组成。在正向传播过程中,输入信息由输入层经隐节点单元逐层处理,并传向输出层。如果输出层不能得到期望的输出,则将误差信号沿原来的连接通路返回,通过修改各层神经元的连接权值,使得误差信号递减至最小。
做题补充:
ANN的中文意思是:人工神经元网络
反向传播(back-propagation,BP)算法过程是从输出节点开始:将误差信号沿原来的连接通路返回,通过修改各层神经元的连接权值,使误差信号减至最小
语义网络下的推理是通过继承和匹配实现的
人工智能导论第 5 版 思考题 第六章
6.1遗传算法的基本步骤和主要特点是什么?
遗传算法的基本步骤:
1.实用随机方法或者其他方法,产生一个有N个染色体的初始群体;
2.对群体中的每一个染色体计算适应值;
3.若满足停止条件、则算法停止,否则以概率pi从群体中随机选择一些染色体构成一个新的群体;
4.以概率pc进行交叉产生一些新的染色体,得到一个新的种群;
5.以一个较小的概率pm使染色体的一个基因发生变异,产生一个新群体,返回步骤二。
主要特点:
1.可以直接对结构对象进行操作;
2.遗传算法不是无方向的随机搜索,而是一个利用随机技术来指导对一个编码的参数空间进行高效率搜索的方法;
3.遗传算法采用群体搜索策略,采用同时处理群体中多个个体的方法,同时对搜索空间中的多个解进行评估;
4.遗传算法的适应度函数不受连续可微的约束,定义域也可以任意设定。
6.2适应度函数在遗传算法中的作用是什么?试举例说明如何构造适应度函数。
适应度函数是用来区分群体中个体好坏的标准,是算法演化过程的驱动力,是进行自然选择的唯一依据。
6.3选择的基本思想是什么?
选择的基本思想是从当前群体中按照一定概率选出优良的个体,使它们有机会作为父代繁殖下一代子孙。
6.4简述多种群遗传算法与基本遗传算法的异同。
多种群遗传算法是在遗传算法的基础上经过改进并引入多种群的概念。
主要有以下的改进:
1.把单个种群改变为多个种群,每个种群都有着可控制的参数,例如交叉,变异概率。给予不同的数值能够产生不同的搜索结果。
2.通过特定的操作因子来控制各种群之间的联系与协同进化,例如设定移民算子,可以得出所有种群最优的进化结果。
3.多种群的收敛条件可以根据每个种群进化的最优个体的数目来测定,各个种群中的最优个体可以增加人工选择算子来进行保留。
6.5简述多倍体遗传算法与基本遗传算法的异同。
基于种群保留遗传算法,引入了多倍体的概念,给出了一种基于种群保留的多倍体遗传算法.当该算法运行时,种群个体将由单倍体变为多倍体。
6.6群智能算法的基本思想是什么?
初始一个种群,选择种群中适应度高的个体进行交叉变异。然后再将适应度低的个体淘汰,留下适应度高的个体进行繁殖,这样不断的进化,最终留下的都是优秀的个体。
6.7群智能算法的主要特点是什么?
特点是表现生物学上的现象与对应的仿生智能计算的关系。
6.8列举几种典型的群智能算法,分析它们的主要优点、缺点。
包括:粒子群优化算法、蚁群算法和人工免疫算法。
6.9简述群智能算法与进化算法的异同。
这两种算法都是受自然现象的启发,两者都是基于种群的方法,且种群中的个体之间、个体与环境之间存在相互作用。两者都是一种元启发式随机搜索方法。
不同之处:EC方法强调种群的达尔文的进化模型,而SI优化方法则注重对群体中个体之间的相互作用与分布式协同的模拟。
6.10简述粒子群算法的流程。
1.初始化每个粒子,即在允许范围内随机设置每个粒子的初始位置和速度。
2.评价每个粒子的适应度,计算每个粒子的目标函数。
3.设置每个粒子的pi。对每个粒子,将其适应度与其经历过的最好位置pi进行比较,如果
优于pi,则将其作为该粒子的最好位置pi。
4.设置全局最优值pg。对每个粒子,将其适应度与群体经历过的最好位置p进行比较,如
果优于pg,则将其作为当前群体的最好位置pg。
5.检查终止条件。如果未达到设定条件(预设误差或者迭代的次数),则返回第2步。
6.11简述粒子群算法位置更新方程中各部分的影响。
只有第1部分:φ1=φ2=0:粒子将一直以当前的速度飞行,直至到达边界;由于它智能搜索有限的区域,所以很难找到好解。
没有第1部分:ω=0:速度只取决于粒子当前位置和其历史最好位置Pi,Pg,速度本身没有记忆性。
没有第2部分:φ1=0:粒子没有认知能力,“只有社会模型”;在粒子的互相作用下,有能力达到新的搜索空间,但对复杂问题,容易陷入局部最优解。
没有第3部分:φ2=0:粒子间没有社会共享信息,也就是“只有认知模型”。因为个体间没有交互,一个规模为M的群体等价于M个单个粒子的运行,因而得到最优解的几率非常小。
6.12举例说明粒子群算法的搜索原理,并简要叙述粒子群算法有哪些特点。
粒子群算法的基本原理是粒子种群在搜索空间以一定的速度飞行,每个粒子在搜索时,考虑自己搜索到的历史最优位置和种群内其他粒子的历史最优位置,在此基础上进行位置的变化。
粒子群算法的特点是简单易行,收敛速度快,设置参数少
6.13粒子群算法的寻优过程包含哪几个阶段?寻优的准则有哪些?
6.14粒子群算法中的参数如何选择?
粒子群算法的参数通过模糊系统进行调节。
6.15举例说明蚁群算法的搜索原理,并简要叙述蚁群算法的特点。
蚁群算法的基本原理来源于自然界中蚂蚁觅食的最短路径问题,其原理是一种正反馈机制或称增强型学习系统;它通过“最优路径上蚂蚁数量的添加→信息素强度添加→后来蚂蚁选择概率增大→最优路径上蚂蚁数量更大添加”达到终于收敛于最优路径上L
它是一种通用型随机优化方法,它吸收了蚂蚁的行为特(内在搜索机制),它是使用人工蚂蚁仿真(也称蚂蚁系统)来求解问题L但人工蚂蚁决不是对实际蚂蚁的一种简单模拟,它融进了人类的智能L人工蚂蚁有一定的记忆;人工蚂蚁不全然是瞎的;人工蚂蚁生活的时空是离散的L
它是一种分布式的优化方法,不仅适合眼下的串行计算机,并且适合未来的并行计算机L
它是一种全局优化的方法,不仅可用于求解单目标优化问题,并且可用于求解多目标优化问题L
它是一种启示式算法,计算复杂性为o(Nc*n2*m),当中Nc是迭代次数,m是蚂蚁数目,n是目的节点数目L
6.16蚁群算法的寻优过程包含哪几个阶段?寻优的准则有哪些?
6.17蚁群算法中的参数如何选择?
确定蚂蚁数目,根据节点规模/蚂蚁数目≈1.5来确定大概的蚂蚁数目;
参数粗调,即调整信息启发式因子、期望启发式因子和信息素强度Q等参数;
参数微调,即调整信息挥发因子。
目前蚁群算法参数的选择在理论上没有依据,主要依经验而定。