博舍

人工智能必备基础知识 人工智能初步知识

人工智能必备基础知识

2.无监督学习

在无监督学习中,数据是未标注的。由于现实中,大多数的数据都是未标注的,因此这些算法特别有用。

无监督学习分为聚类和降维。聚类用于根据属性和行为对象进行分组。这与分类不同,因为这些组不会提供给你。聚类将一个组划分为不同的子组(例如,根据年龄和婚姻状况),然后进行有针对性的营销。另一方面,降维涉及通过查找共性来减少数据集的变量。大多数数据可视化使用降维来识别趋势和规则。

3.强化学习

强化学习使用机器的历史和经验来做出决策。强化学习的经典应用是游戏。与监督和无监督学习相反,强化学习不注重提供“正确”的答案或输出。相反,它专注于性能,这类似人类根据积极和消极后果进行学习。如果孩子碰到了热炉,他很快就会学会不再重复这个动作。同样在国际象棋中,计算机可以学习不将王移动到对手的棋子可以到达的地方。根据这个原理,在游戏中机器能够最终击败顶级的人类玩家。

02机器学习的发展历程

机器学习的最早由贝叶斯在1783年发表的同名定理中提出。贝叶斯定理根据类似事件的历史数据得出事件的可能性。换句话说,贝叶斯定理是一种从经验中学习的数学方法,这也是机器学习的基本思想。

▲来源:XKCD

几个世纪后的1950年,计算机科学家艾伦·图灵发明了图灵测试,计算机通过文本对话,从而让人类认为与其交谈的是人而不是计算机。图灵认为,只有当机器通过这项测试才能被认为是“智能的”。

在此之后不久,1952年,亚瑟·塞缪尔开发了第一个真正的机器学习程序,在简单的跳棋游戏中,计算机能够根据之前的游戏学习策略,并提高之后的表现。接下来是1963年,唐纳德·米基开发了基于强化学习的tic-tac-toe项目。

机器学习的最大突破是2006年深度学习的发展。深度学习是机器学习的一个类别,旨在模仿人类大脑的思维过程,通常用于图像和语音识别。

如今我们使用的许多技术都不离开深度学习。你是否曾将照片上传到Facebook帐户,并标记图中的人物?Facebook正在使用神经网络识别照片中的人脸。还有Siri,当你向iPhone询问今天棒球比赛的比分时,你的语音将通过复杂的语音解析算法进行分析。没有深度学习,这一切都将难以实现。

03机器学习的原理

初学者们要注意了,如果想完全理解大多数机器学习算法,那么必须对一些关键数学概念有基本了解。但不要害怕,这些概念很简单,有些可能你已经掌握了。机器学习涉及到线性代数、微积分、概率和统计。

线性代数概念Top3:

1.矩阵运算

2.特征值/特征向量

3.向量空间和范数

微积分概念Top3:

1.偏导数

2.向量值函数

3.方向梯度

统计概念Top3:

1.贝叶斯定理

2.组合学

3.抽样方法

一旦掌握了基本的数学概念,就可以入门机器学习了,有5个主要步骤。

▲来源:PythonTips

让我们看到一些常见的算法:

1.回归算法

这可能是最流行的机器学习算法,线性回归算法是基于连续变量预测特定结果的监督学习算法。另一方面,逻辑回归专门用于预测离散值。这些算法都以其速度而闻名,它们被认为是最快的机器学习算法之一。

▲来源:TowardsDataScience

2.基于实例的算法

基于实例的分析根据提供数据的特定实例来预测结果。最著名的基于实例算法是k-NearestNeighbor,也称为kNN。用于分类中,kNN比较数据点的距离并将每个点分配给它最接近的组。

▲来源:KDnuggets

3.决策树算法

决策树算法聚集“弱”学习元素,让它们一起形成强大的算法,这些元素以树状结构组成。其中比较流行的决策树算法是随机森林算法。在该算法中,弱学习元素是随机选择的。在下面的例子中,我们可以发现许多共同的特征(比如眼睛为蓝色或非蓝色),这都无法对动物种类进行辨别。然而,当我们将所有这些观察结果结合在一起时,我们能够形成更完整的理解并进行更准确的预测。

▲来源:PyBloggers

4.贝叶斯算法

这些算法基于贝叶斯定理的,最受欢迎的是朴素贝叶斯算法,它经常用于文本分析。例如,大多数垃圾邮件过滤器都使用贝叶斯算法。它们使用按类别标记的用户输入数据来比较新数据,并对其进行适当分类。

▲来源:Simafore

5.聚类算法

聚类算法专注找到元素间的共性,并相应地对它们进行分组。常见的聚类算法是K-Means聚类。根据K-Means,分析人员选择聚类的数量(由变量K表示),算法将元素按物理距离分组到适当的聚类中。

▲来源:Brilliant

6.深度学习和神经网络算法

人工神经网络算法基于生物神经网络的结构。深度学习采用神经网络模型并对其进行更新。它们是大型且极其复杂的神经网络,使用少量标注数据和大量未标注数据。神经网络和深度学习具有许多输入,这些输入在产生一个或多个输出之前要通过若干隐藏层。这些连接形成一个特定的循环,模仿人脑处理信息和建立逻辑联系的方式。此外,随着算法的运行,隐藏层通常会变得更小、更细微。

▲来源:Synopsys

7.其他算法

下面的图表注明了主要的机器学习算法,它们的类别以及之间的关系。

▲来源:scikit

一旦选择并运行算法,你还需要一个非常重要的步骤:对结果进行可视化。虽然与算法编程相比,这看似很简单而没有技术含量。但出色的可视化能力对于数据科学家来说是至关重要的。即使你得出的分析见解再好,一旦没有人能理解也是毫无价值的。

04机器学习的重要性

我们需要明确的是,机器学习有潜力能够改变世界。通过GoogleBrain和斯坦福机器等研究团队的努力,我们正朝着真正的人工智能迈进。但是,机器学习即将影响的领域有哪些呢?

1.物联网

物联网或IOT,指家庭和办公室中与网络连接的物理设备。其中一个流行的物联网设备是智能灯泡,其销售额在过去几年中飙升。随着机器学习的进步,物联网设备比以往更智能,更复杂。

物联网相关的机器学习应用主要有两方面,提高设备性能和收集数据。

提高设备性能非常简单,我们可以使用机器学习来定制环境,比如用面部识别软件识别谁是房间里,并相应地调整温度和空调。

收集数据更加简单,通过连接网络的设备(如Amazonecho),亚马逊等公司将收集的用户数据提供给广告商,这些数据包括你会看哪些节目,起床和睡觉的时间,你家里有几口人等等。

▲来源:i-Scoop

2.聊天机器人

在过去几年,聊天机器人的数量激增,复杂的语言处理算法在不断改进。公司在自己的移动应用和第三方应用上使用聊天机器人,从而提供比更快、更高效的客户服务。例如,如果要从H&M订购衬衫,你可以告诉他们的聊天机器人你想要的款式和尺寸,轻松订购产品。

▲来源:zipfworks

3.自动驾驶汽车

如今,雪佛兰、优步和特斯拉等几家大公司正在开发自动驾驶汽车。这些汽车使用通过机器学习进行导航、维护和安全程序。比如交通标志传感器,它使用监督学习算法来识别交通标志,并与标注数据集进行比较。因此,汽车看到停车标志时,系统将进行确认并停车。

以上就是机器学习相关的一些基础概念,希望能够对你的机器学习之旅有所帮助。

《裂变:秒懂人工智能的基础课》返回搜狐,查看更多

人工智能知识点总结

第一章绪论什么是人工智能?智能机器:能够在各类环境中自主地或交互地执行各种拟人任务的机器。人工智能(学科):人工智能(学科)是计算机科学中涉及研究、设计和应用智能机器的一个分支。它的近期主要目标在于研究用机器来模仿和执行人脑的某些智力功能,并开发相关理论和技术。人工智能(能力):人工智能(能力)是智能机器所执行的通常与人类智能有关的智能行为,如判断、推理、证明、识别、感知、理解、通信、设计、思考、规划、学习和问题求解等思维活动。人工智能有哪些学派?

符号主义:以知识的符号表达为基础,通过推理进行问题求解连接主义:认为人的思维基元是神经元,而不是符号处理过程行为主义:主张从行为方面模拟、延伸、扩展人的智能,认为“智能”可以不需要“知识”

第二章知识表示方法什么是知识数据与信息:数据是信息的载体和表示;信息是数据的语义。知识:一般来说,把有关信息关联在一起所形成的信息结构称为知识。搜索策略广度优先搜索按照“先扩展出的节点先被考察”的原则进行搜索;深度优先搜索按照“后扩展出的节点先被考察”的原则进行搜索;有界深度优先搜索的原则与深度优先搜索相同,但是它规定了深度限界,使搜索不得无限制地向纵深方向发展;代价树的广度优先搜索按照“哪个节点到根节点的代价小就先考察哪个节点”的原则进行搜索;代价树的深度优先搜索按照“当前节点的哪个子节点到其父节点的代价小就先考察哪个子节点”的原则进行搜索;局部择优搜索按照“当前节点的哪个子节点到目标节点的估计代价小就先考察哪个子节点”的原则进行搜索;全局择优搜索按照“哪个节点到目标节点的估计代价小就先考察哪个节点”的原则进行搜索

以重排九宫为例

盲目搜索广度优先搜索

优点:只要问题有解,用广度优先搜索总可以得到解,而且得到的是路径最短的解。缺点:广度优先搜索盲目性较大,当目标节点距初始节点较远时将会产生许多无用节点,搜索效率低。

深度优先搜索

1.在深度优先搜索中,搜索一旦进入某个分支,就将沿着该分支一直向下搜索。如果目标节点恰好在此分支上,则可较快地得到解。但是,如果目标节点不在此分支上,而该分支又是一个无穷分支,则就不可能得到解。所以深度优先搜索是不完备的,即使问题有解,它也不一定能求得解。2.用深度优先求得的解,不一定是路径最短的解。3.本质:以初始节点为根节点,在状态空间图中按照深度优先的原则,生成一棵搜索树。

有界深度优先搜索

1.如果问题有解,且其路径长度≤dm,则上述搜索过程一定能求得解。但是,若解的路径长度>dm,则上述搜索过程就得不到解。这说明在有界深度优先搜索中,深度界限的选择是很重要的。2.要恰当地给出dm的值是比较困难的。即使能求出解,它也不一定是最优解。

代价树

上标有代价(或费用)的树称为代价树。

用g(x)表示从初始节点S0到节点x的代价,用c(x1,x2)表示从父节点x1到子节点x2的代价,则有:g(x2)=g(x1)+c(x1,x2)g(x_2)=g(x_1)+c(x_1,x_2)g(x2​)=g(x1​)+c(x1​,x2​)

代价树的广度优先搜索

搜索过程

把初始节点S0放入OPEN表,令g(S0)=0。如果OPEN表为空,则问题无解,退出。把OPEN表的第一个节点(记为节点n)取出放入CLOSE表。考察节点n是否为目标节点。若是,则求得了问题的解,退出。若节点n不可扩展,则转第2步。扩展节点n,为每一个子节点都配置指向父节点的指针,并将各子节点放入OPEN表中;计算各子节点的代价,按各节点的代价对OPEN表中的全部节点进行排序(按从小到大的顺序),然后转第2步代价树的深度优先搜索

搜索过程

把初始节点S0放入OPEN表,令g(S0)=0。如果OPEN表为空,则问题无解,退出。把OPEN表的第一个节点(记为节点n)取出放入CLOSE表。考察节点n是否为目标节点。若是,则求得了问题的解,退出。若节点n不可扩展,则转第2步。扩展节点n,将其子节点按“边”代价从小到大的顺序放到OPEN表中的首部,并为每一个子节点都配置指向父节点的指针,然后转第2步。

代价树的深度优先搜索是不完备的。

启发式搜索

盲目搜索具有较大的盲目性,产生的无用节点较多,效率不高。

启发式搜索采用问题自身的特性信息,以指导搜索朝着最有希望的方向前进。这种搜索针对性较强,因而效率较高

启发性信息与估价函数

可用于指导搜索过程,且与具体问题有关的信息称为启发性信息。用于评估节点重要性的函数称为估价函数。其一般形式为:f(x)=g(x)+h(x)f(x)=g(x)+h(x)f(x)=g(x)+h(x)

其中g(x)表示从初始节点S0到节点x的代价;h(x)是从节点x到目标节点Sg的最优路径的代价的估计,它体现了问题的启发性信息,称为启发函数。f(x)决定节点在OPEN表中的次序。g(x)指出了搜索的横向趋势,有利于搜索的完备性,但影响搜索的效率。h(x)指出了搜索的纵向趋势,有利于提高搜索的效率,但影响搜索的完备性。

局部择优搜索

局部择优搜索是一种启发式搜索方法,是对深度优先搜索方法的一种改进。基本思想:当一个节点被扩展以后,按f(x)对每一个子节点计算估价值,并选择最小者作为下一个要考察的节点。

搜索过程

把初始节点S0放入OPEN表,计算f(S0)。如果OPEN表为空,则问题无解,退出。把OPEN表的第一个节点(记为节点n)取出放入CLOSE表。考察节点n是否为目标节点。若是,则求得了问题的解,退出。若节点n不可扩展,则转第2步。扩展节点n,用估价函数f(x)计算每个子节点的估价值,并按估价值从小到大的顺序放到OPEN表中的首部,并为每一个子节点都配置指向父节点的指针,然后转第2步。

在局部择优搜索中,若令f(x)=g(x),则局部择优搜索就成为代价树的深度优先搜索。在局部择优搜索中,若令f(x)=d(x),这里d(x)表示节点x的深度,则局部择优搜索就成为深度优先搜索。因此:深度优先搜索、代价树的深度优先搜索均为局部择优搜索的特例

全局择优搜索

每当要选择下一个节点进行考察时,全局择优搜索每次总是从OPEN表的全体节点中选择一个估价值最小的节点。搜索过程

把初始节点S0放入OPEN表,计算f(S0)。如果OPEN表为空,则问题无解,退出。把OPEN表的第一个节点(记为节点n)取出放入CLOSE表。考察节点n是否为目标节点。若是,则求得了问题的解,退出。若节点n不可扩展,则转第2步。扩展节点n,用估价函数f(x)计算每个子节点的估价值,并为每一个子节点都配置指向父节点的指针。把这些子节点都送入OPEN表中,然后对OPEN表中的全部节点按估价值从小至大的顺序进行排序,然后转第2步。

在全局择优搜索中,若令f(x)=g(x),则它就成为代价树的广度优先搜索。在全局择优搜索中,若令f(x)=d(x),这里d(x)表示节点x的深度,则它就成为广度优先搜索。因此:广度优先搜索、代价树的广度优先搜索是全局择优搜索的两个特例。

例子设估价函数为f(x)=d(x)+h(x),其中,d(x)表示节点x的深度,h(x)表示节点x的格局与目标节点格局不相同的牌数。[外链图片转存失败(img-8Bhj0Oh9-1562232606973)(人工智能/7.png)]

第三章变量代换

代换是一个形如{t1/x1,t2/x2,…,tn/xn}{t_1/x_1,t_2/x_2,…,t_n/x_n}{t1​/x1​,t2​/x2​,…,tn​/xn​}的有限集合。其中t1,t2,…,tnt_1,t_2,…,t_nt1​,t2​,…,tn​是项(常量、变量、函数);x1,x2,…,xnx_1,x_2,…,x_nx1​,x2​,…,xn​是(某一公式中)互不相同的变元;ti/xit_i/x_iti​/xi​表示用tit_iti​代换xix_ixi​不允许tit_iti​与xix_ixi​相同,也不允许变元xix_ixi​循环地出现在另一个tjt_jtj​中。

例如:{a/x,f(b)/y,w/z}是一个代换{g(y)/x,f(x)/y}不是代换{g(a)/x,f(x)/y}是代换

代换的复合

定义设θ={t1/x1,t2/x2,⋯ ,tn/xn} heta={t_1/x_1,t_2/x_2,cdots,t_n/x_n}θ={t1​/x1​,t2​/x2​,⋯,tn​/xn​}λ={u1/y1,u2/y2,⋯ ,um/ym}lambda={u_1/y_1,u_2/y_2,cdots,u_m/y_m}λ={u1​/y1​,u2​/y2​,⋯,um​/ym​}是两个代换则这两个代换的复合也是一个代换,它是从{t1λ/x1,t2λ/x2,⋯ ,tnλ/xn,u1/y1,u2/y2,⋯ ,um/ym}{t_1lambda/x_1,t_2lambda/x_2,cdots,t_nlambda/x_n,u_1/y_1,u_2/y_2,cdots,u_m/y_m}{t1​λ/x1​,t2​λ/x2​,⋯,tn​λ/xn​,u1​/y1​,u2​/y2​,⋯,um​/ym​}中删去如下两种元素:tiλ/xi当tiλ=xit_ilambda/x_iquad当t_ilambda=x_iti​λ/xi​当ti​λ=xi​ui/yi当yi∈{x1,x2,⋯ ,xn}u_i/y_iquad当y_iin{x_1,x_2,cdots,x_n}ui​/yi​当yi​∈{x1​,x2​,⋯,xn​}后剩下的元素所构成的集合,记为θ°λ

(1)tiλt_ilambdati​λ表示对tit_iti​运用λ进行代换。(2)θ°λ就是对一个公式F先运用θ进行代换,然后再运用λ进行代换:F(θ°λ)=(Fθ)λ

最一般合一F={P(a,x,f(g(y))),P(z,f(z),f(u))}求其最一般合一的过程:令F0=F,σ0=ε。F0中有两个表达式,所以σ0不是最一般合一。差异集:D0={a,z}。代换:{a/z}F1=F0{a/z}={P(a,x,f(g(y))),P(a,f(a),f(u))}。σ1=σ0°{a/z}={a/z}D1={x,f(a)}。代换:{f(a)/x}F2=F1{f(a)/x}={P(a,f(a),f(g(y))),P(a,f(a),f(u))}。σ2=σ1°{f(a)/x}={a/z,f(a)/x}D2={g(y),u}。代换:{g(y)/u}F3=F2{g(y)/u}={P(a,f(a),f(g(y))),P(a,f(a),f(g(y)))}。σ3=σ2°{g(y)/u}={a/z,f(a)/x,g(y)/u}子句集

定义:任何文字的析取式称为子句(1)合取范式:C1∧C2∧C3…∧Cn(2)子句集:S={C1,C2,C3…,Cn}(3)任何谓词公式F都可通过等价关系及推理规则化为相应的子句集S

把谓词公式化成子句集利用等价关系消去“→”和“↔”例如公式(∀x)((∀y)P(x,y)→¬(∀y)(Q(x,y)→R(x,y)))(forallx)((forally)P(x,y) ightarrow eg(forally)(Q(x,y) ightarrowR(x,y)))(∀x)((∀y)P(x,y)→¬(∀y)(Q(x,y)→R(x,y)))可等价变换成(∀x)(¬(∀y)P(x,y)∨¬(∀y)(¬Q(x,y)∨R(x,y)))(forallx)( eg(forally)P(x,y)vee eg(forally)( egQ(x,y)veeR(x,y)))(∀x)(¬(∀y)P(x,y)∨¬(∀y)(¬Q(x,y)∨R(x,y)))利用等价关系把“¬”移到紧靠谓词的位置上上式经等价变换后(∀x)((∃y)¬P(x,y)∨(∃y)(Q(x,y)∧¬R(x,y)))(forallx)((existsy) egP(x,y)vee(existsy)(Q(x,y)wedge egR(x,y)))(∀x)((∃y)¬P(x,y)∨(∃y)(Q(x,y)∧¬R(x,y)))重新命名变元,使不同量词约束的变元有不同的名字上式经变换后(∀x)((∃y)¬P(x,y)∨(∃z)(Q(x,z)∧¬R(x,z)))(forallx)((existsy) egP(x,y)vee(existsz)(Q(x,z)wedge egR(x,z)))(∀x)((∃y)¬P(x,y)∨(∃z)(Q(x,z)∧¬R(x,z)))消去存在量词a.存在量词前面没有全称量词时,则只要用一个新的个体常量替换受该量词约束的变元。b.存在量词前面有一个或者多个全称量词时,要用函数f(x1,x2,…,xn)替换受该存在量词约束的变元。上式中存在量词(∃yexistsy∃y)及(∃zexistsz∃z)都位于(∀xforallx∀x)的后面,所以需要用函数替换,设替换y和z的函数分别是f(x)和g(x),则替换后得到(∀x)(¬P(x,f(x))∨(Q(x,g(x))∧¬R(x,g(x))))(forallx)( egP(x,f(x))vee(Q(x,g(x))wedge egR(x,g(x))))(∀x)(¬P(x,f(x))∨(Q(x,g(x))∧¬R(x,g(x))))把全称量词全部移到公式的左边(∀x)(¬P(x,f(x))∨(Q(x,g(x))∧¬R(x,g(x))))(forallx)( egP(x,f(x))vee(Q(x,g(x))wedge egR(x,g(x))))(∀x)(¬P(x,f(x))∨(Q(x,g(x))∧¬R(x,g(x))))利用等价关系把公式化为Skolem标准形P∨(Q∧R)⇔(P∨Q)∧(P∨R)Pvee(QwedgeR)Leftrightarrow(PveeQ)wedge(PveeR)P∨(Q∧R)⇔(P∨Q)∧(P∨R)Skolem标准形的一般形式是(∀x1)(∀x2)⋯(∀xn)Mleft(forallx_{1} ight)left(forallx_{2} ight)cdotsleft(forallx_{n} ight)M(∀x1​)(∀x2​)⋯(∀xn​)M其中,M是子句的合取式,称为Skolem标准形的母式。上式化为Skolem标准形后得到(∀x)((¬P(x,f(x))∨Q(x,g(x)))∧(¬P(x,f(x))∨¬R(x,g(x))))(forallx)(( egP(x,f(x))veeQ(x,g(x)))wedge( egP(x,f(x))vee egR(x,g(x))))(∀x)((¬P(x,f(x))∨Q(x,g(x)))∧(¬P(x,f(x))∨¬R(x,g(x))))消去全称量词对变元更名,使不同子句中的变元不同名(¬P(x,f(x))∨Q(x,g(x)))∧(¬P(y,f(y))∨¬R(y,g(y)))( egP(x,f(x))veeQ(x,g(x)))wedge( egP(y,f(y))vee egR(y,g(y)))(¬P(x,f(x))∨Q(x,g(x)))∧(¬P(y,f(y))∨¬R(y,g(y)))消去合取词,就得到子句集¬P(x,f(x))∨Q(x,g(x)) egP(x,f(x))veeQ(x,g(x))¬P(x,f(x))∨Q(x,g(x))¬P(y,f(y))∨¬R(y,g(y)) egP(y,f(y))vee egR(y,g(y))¬P(y,f(y))∨¬R(y,g(y))海伯伦理论(Herbrand)

为了判断子句集的不可满足性,需要对所有可能论域上的所有解释进行判定。只有当子句集对任何非空个体域上的任何一个解释都是不可满足的时候,才可断定该子句集是不可满足的。

鲁滨逊归结原理子句集S的不可满足性:

对于任意论域中的任意一个解释,S中的子句不能同时取得真值T。一旦S中包含空子句,则S必不可满足。

基本思想:

检查子句集S中是否包含空子句。若包含,则S不可满足;若不包含,就在子句集中选择合适的子句进行归结,一旦通过归结能推出空子句,就说明子句集S是不可满足的。

归结反演的步骤

设F为已知前提的公式集,Q为目标公式(结论),用归结反演证明Q为真的步骤是:

否定Q,得到¬Q;把¬Q并入到公式集F中,得到{F,¬Q};把公式集{F,¬Q}化为子句集S;应用归结原理对子句集S中的子句进行归结,并把每次归结得到的归结式都并入S中。如此反复进行,若出现了空子句,则停止归结,此时就证明了Q为真。应用归结原理求取问题的答案求解的步骤:把已知前提用谓词公式表示出来,并且化为相应的子句集。设该子句集的名字为S。把待求解的问题也用谓词公式表示出来,然后把它否定并与谓词Answer构成析取式。Answer是一个为了求解问题而专设的谓词,其变元须与问题公式的变元完全一致。把此析取式化为子句集,并且把该子句集并入到子句集S中,得到子句集S’。对S’应用归结原理进行归结。若得到归结式Answer,则答案就在Answer中。第四章可信度方法

概念

根据经验对一个事物和现象为真的相信程度称为可信度。在可信度方法中,由专家给出规则或知识的可信度,从而可避免对先验概率、条件概率的要求。可信度方法首先在专家系统MYCIN中得到了成功的应用。C-F模型组合证据不确定性的算法

可采用最大最小法。若E=E1 AND E2 AND … AND Enmathrm{E}=mathrm{E}_{1} ext{AND}mathrm{E}_{2} ext{AND}ldots ext{AND}mathrm{E}_{mathrm{n}}E=E1​ AND E2​ AND … AND En​,则CF(E)=min⁡{CF(E1),CF(E2),…,CF(En)}mathrm{CF}(mathrm{E})=minleft{mathrm{CF}left(mathrm{E}_{1} ight),mathrm{CF}left(mathrm{E}_{2} ight),ldots,mathrm{CF}left(mathrm{E}_{n} ight) ight}CF(E)=min{CF(E1​),CF(E2​),…,CF(En​)}若E=E1 OR E2 OR … OR Enmathrm{E}=mathrm{E}_{1} ext{OR}mathrm{E}_{2} ext{OR}ldots ext{OR}mathrm{E}_{mathrm{n}}E=E1​ OR E2​ OR … OR En​,则CF(E)=max⁡{CF(E1),CF(E2),…,CF(En)}mathrm{CF}(mathrm{E})=maxleft{mathrm{CF}left(mathrm{E}_{1} ight),mathrm{CF}left(mathrm{E}_{2} ight),ldots,mathrm{CF}left(mathrm{E}_{mathrm{n}} ight) ight}CF(E)=max{CF(E1​),CF(E2​),…,CF(En​)}

结论不确定性的合成算法

若由多条不同知识推出了相同的结论,但可信度不同,则用合成算法求出综合可信度。设有如下知识:IFE1quadmathrm{E}_{1}quadE1​THENH(CF(H,E1))quadmathrm{H}quadleft(mathrm{CF}left(mathrm{H},mathrm{E}_{1} ight) ight)H(CF(H,E1​))IFE2quadmathrm{E}_{2}quadE2​THENH(CF(H,E2))quadmathrm{H}quadleft(mathrm{CF}left(mathrm{H},mathrm{E}_{2} ight) ight)H(CF(H,E2​))则结论H的综合可信度分如下两步算出:首先分别对每一条知识求出CF(H)CF(H)CF(H):计算CF1(H)CF_1(H)CF1​(H),CF2(H)CF_2(H)CF2​(H)然后用下述公式求出E1与E2对H的综合可信度CF12(H)CF_{12}(H)CF12​(H):P(H∣S)={CF1(H)+CF2(H)−CF1(H)×CF2(H),CF1(H)≥0,CF2(H)≥0CF1(H)+CF2(H)+CF1(H)×CF2(H),CF1(H)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇