博舍

人工智能———贝叶斯公式简单计算题 人工智能导论计算题怎么做好

人工智能———贝叶斯公式简单计算题

(1)如下数据集中,计算“温度=热”,“是否适合打网球=是”后验概率;

(2)使用特征独立假设,在如下数据集中,计算P(“是否有风=否”,”天气=晴“,|“是否适合打网球=是”);

天气(x1)

温度(x2)湿度(x3)是否有风(x4)是否适合打网球(Y)晴热高否否(n)晴热高是否(n)阴热高否是(y)雨温高否是(y)雨凉爽中否是(y)雨凉爽中是否(n)阴凉爽中是是(y)晴温高否否(n)晴凉爽中否是(y)雨温中否是(y)晴温中是是(y)阴温高是是(y)阴热中否是(y)雨温高是否(n)

介绍 ——贝叶斯决策公式:

             

        贝叶斯决策就是在贝叶斯公式计算出后验概率的基础上,进一步做归属的决定——分类。其主要包括两种决策方式,即最小错误贝叶斯决策,和最小风险贝叶斯决策。前者是在比较理想或者各类类别地位均等的情况下的决策,而后者则要考虑决策本身带来的代价和各类别地位的不均等。

        

解:

(1)即求x2={热}时的“是否适合打篮球”的结果为“是”的后检概率:

    根据贝叶斯定理:P(Y=y|X)=P(X1|Y=y)*P(Y=y)*P(x2|Y=y)*P(x3|Y=y)*P(x4|Y=y)*P(Y=y)

    得P(Y=n|X)=P(X1|Y=n)*P(Y=y)*P(x2|Y=n)*P(x3|Y=n)*P(x4|Y=n)*P(Y=n),

        P(Y=y)=9/14,P(x2=热|Y=y)=2/14,

    因此,P(x2=热|Y=y)=2/9

(2)我们知道:P(a,b,c)=P(c)P(a|c)P(b|c)

        在c给定的时候,可得P(a,b|c)=P(a,b,c)/P(c)=P(a|c)P(b|c)

        但在c未知的情况下:

        

    故说特征是条件独立的,而不是独立的。

    由本题知:

        P(x4=否,x2=晴,y=n)=9/14*3/9*6/9=2/14

 

阅读

文章目录绪论-人工智能第1章、绪论1.1人工智能的起源和定义1.2人工智能的流派1.3人工智能的进展和发展趋势知识表示篇第2章、概念表示2.1经典概念理论2.2数理逻辑2.3集合论2.4概念的现代表示理论第3章、知识表示3.1知识与知识表示的概念3.2产生式表示法3.3框架表示法3.4状态空间表示法3.5本章小结第4章、知识图谱4.1知识图谱4.2本体知识表示4.3万维网知识表示4.4知识图谱的现状及发展4.5知识图谱的应用示例4.6本章小结

写在前面:

本系列文是笔者在阅读人工智能相关书籍的过程中,结合导图所做的笔记梳理。

本文源自:2018年《人工智能导论》李德毅梳理内容:书中前四章(绪论及知识表示篇),分别为:01绪论、02概念表示、03知识表示、04知识图谱本文写于:2022年9月2日~4日

书籍框架:

绪论-人工智能第1章、绪论

1.1人工智能的起源和定义

导图

1.2人工智能的流派

导图

三大流派的相关实验

人工智能主要有三大流派,这三大流派分别对应了概念的不同功能。

符号主义

图灵测试:符号主义中著名的思想实验

中文屋实验:批判图灵测试

连接主义

缸中之脑实验:批判连接主义

行为主义

“完美伪装者和斯巴达人”实验:批判行为主义

1.3人工智能的进展和发展趋势

导图

知识表示篇

知识表示包含:概念表示、知识表示、知识图谱三部分内容

第2章、概念表示

2.1经典概念理论

导图

2.2数理逻辑

导图

示例

自然语言中,不是所有语句都是命题。

其中,是命题的语句中还可划分为:①简单命题、②复合命题下面的示例:是对语句进行的判断,并对命题进行了符号化表示2.3集合论

导图

2.4概念的现代表示理论

导图

第3章、知识表示

本章将首先介绍知识与知识表示的概念,然后介绍产生式、框架、状态空间等当前人工智能中应用比较广泛的知识表示方法,为后面介绍推理方法、搜索专家系统等奠定基础。

3.1知识与知识表示的概念

导图

3.2产生式表示法

导图

3.3框架表示法

导图

3.4状态空间表示法

导图

3.5本章小结

第4章、知识图谱

本章主要学习本体和互联网环境下的知识表示方法、知识,图谱的生命周期和典型应用。

4.1知识图谱

导图

4.2本体知识表示

导图

4.3万维网知识表示

示例-语义万维网

导图

4.4知识图谱的现状及发展

知识图谱的生命周期

导图

4.5知识图谱的应用示例

导图

4.6本章小结

人工智能导论:清览作业

写在最前面的话

快说谢谢学姐!!!

注意:本博客仅供参考!!!作业一1

考虑一个实时的在线电话翻译系统,该系统实现英语与日语之间的实时在线翻译,讨论该系统的性能度量,环境,执行器,感知器,并对该环境的属性进行分析。

性能度量:翻译的正确率环境:电话线路传感器:麦克风执行器:音响完全可观察的,单agent,确定的(无噪音条件下),片段的,静态的,离散的。2

考虑一个医疗诊断系统的Agent,讨论该Agent最合适的种类(简单Agent,基于模型的Agent,基于目标的Agent和基于效用的Agent)并解释你的结论。

utility-basedagent基于效用的Agent能够治愈病人的方法有很多种,系统必须衡量最优的方法来推荐给病人3

先建立一个完整的搜索树,起点是S,终点是G,如下图,节点旁的数字表示到达目标状态的距离,然后用以下方法表示如何进行搜索,并分析几种算法的完备性、最优性、以及时间复杂度和空间复杂度。a.深度优先;b.广度优先;c.爬山法;d.最佳优先;

深度优先搜索:在有限状态空间中,深度优先搜索是完备的,因为它至多扩展所有结点,但在树搜索中,则不完备(因为算法可能会陷入死循环);该算法无法避免冗余路径,因此不是最优的;深度优先搜索只需要存储O(bm)个结点,因此空间复杂度为O(bm);该算法可能搜索树上每个结点,因此时间复杂度为O(b^m)。(其中b为分支因子,m为树的最大深度)广度优先搜索:首先,广度优先搜索是完备的(如果最浅的目标结点处于一个有限深度d,广度优先搜索在扩展完比它浅的所有结点之后最终一定能找到该目标结点;其次,如果路径代价是基于结点深度的非递减函数,则广度优先搜索是最优的;该方法的时间复杂度为O(b^d)(假设解的深度为d);该方法的空间复杂度同样为O(b^d)(因为有O(b^d)个结点在边缘结点中。爬山法:考虑随机重启时,全程遍历,时间与空间复杂度可以为O(b^d)(1)利用最陡爬山法最陡爬山法是一个简单的循环过程,不断地向值增加的方向持续移动,这里选择的就是距离最小的值移动。爬山算法,是一种局部贪心的最优算法.该算法的主要思想是:每次拿相邻点与当前点进行比对,取两者中较优者,作为爬坡的下一步。在S点出发,因为h(A)=8,小于h(B),所以爬山爬到A,之后类似这样就到D,最后到G。路径就是S-A-D-G.最陡爬山法不具有完备性,因为会经常陷入困境,不一定能找到解。而且只能找到多个局部最优点的其中一个,不一定是全局最优点,所以不具有最优性。因为从上到下,每层只生成和保存一个结点,所以时间复杂度和空间复杂度都是O(d)。d为目标结点或者局部最优结点的深度。(2)首选爬山法依次寻找该点X的邻近点中首次出现的比点X价值高的点,并将该点作为爬山的点。依次循环,直至该点的邻近点中不再有比其大的点.利用首选爬山法可能得到以上3条可能的路径,分别用不同颜色标注。在S的时候,随机生成A,因为A比当前较优,所以从A再随机生成下一个结点,因为B=9,比当前差,放弃再生成D,最后得到S->A->D->G这条路径。另外两条也是根据这个方法推出。首选爬山法不具有最优性和完备性。因为从上到下,每层只生成和保存一个结点,所以时间复杂度和空间复杂度都是O(d)。d为目标结点或者局部最优结点的深度最佳优先搜索:完备性:贪婪最佳优先搜索是不完备的(有限状态空间的图索索版本是完备的)。A*搜索是完备的。最优性:贪婪最优先佳搜索:每次扩展是局部最优的选择,可能不能达到全局最优,所以不是最优的。A*搜索:如果h(n)是可采纳的,则树搜索版本是最优的。如果h(n)是⼀致的,则图搜索版本是最优的。时间复杂度:贪婪最佳优先搜索:与深度优先类似,时间复杂度为O(b^m)。A*搜索:O(b^d),其中d=h*-h,为到⽬标结点的实际代价。空间复杂度:贪婪最佳优先搜索:O(b^m)。A*搜索:O(b^d),其中d=h*-h。4

图二是一棵部分展开的搜索树,其中树的边记录了对应的单步代价,叶子节点标注了到达目标结点的启发式函数的代价值,假定当前状态位于结点A。a)用下列的搜索方法来计算下一步需要展开的叶子节点。注意必须要有完整的计算过程,同时必须对扩展该叶子节点之前的节点顺序进行记录:1.贪婪最佳优先搜索2.一致代价搜索3.A*树搜索(b)讨论以上三种算法的完备性和最优性。

a)贪婪最佳优先:如果h(B)>5,首先访问叶子结点C,如果h(B)15,首先访问D;如果h(B)

人工智能导论(4)——不确定性推理(Uncertainty Reasoning)

文章目录一、概述二、重点内容三、思维导图四、重点知识笔记1.不确定性推理概述1.1概念1.2分类1.3基本问题2.概率方法2.1基础知识2.2经典概率方法2.3逆概率方法3.可信度方法3.1可信度的基本概念3.2可信度模型4.模糊推理4.1模糊数学的基本知识4.2模糊假言推理一、概述

人工智能经典三大基本技术为:知识表示、推理、搜索策略。推理是人类求解问题的主要思维方法。

无论是人类智能还是人工智能,都离不开不确定性的处理。可以说,智能主要反映在求解不确定性问题的能力上。因此,不确定性推理模型是人工智能和专家系统的一个核心研究课题。

为方便记忆和回顾,根据个人学习,总结人工智能基础知识和思维导图形成系列。

二、重点内容不确定性推理的概念及分类不确定性推理中的基本问题概率方法及贝叶斯公式可信度方法模糊推理三、思维导图

四、重点知识笔记1.不确定性推理概述1.1概念

不确定性推理是指从不确定性的初始证据出发,通过运用不确定性的知识,推出具有一定程度的不确定性但却合理或近乎合理的结论的思维过程。

不精确性是科学认识中的重要规律,也是进行机器智能推理的主要工具之一。

1.2分类

不确定性推理方法主要分为控制方法和模型方法两类。

模型方法数值模型方法基于概率概率方法(纯概率法应用受限)贝叶斯方法可信度方法证据理论基于模糊理论模糊方法非数值模型方法发生率计算方法控制方法尚没有统一模型。相关性指导、机缘控制、启发式搜索、随机过程控制等

控制方法

控制方法没有处理不确定性的统一模型,其效果极大地依赖于控制策略。

不确定性推理的控制方法主要取决于控制策略,包括相关性指导、机缘控制、启发式搜索、随机过程控制等。

模型方法

模型方法具体可分为数值模型方法和非数值模型方法两类。按其依据的理论不同,数值模型方法主要有基于概率的方法和基于模糊理论的推理方法。

纯概率方法虽然有严格的理论依据,但通常要求给出事件的先验概率和条件概率,而这些数据又不易获得,因此使其应用受到限制。在概率论的基础上提出了一些理论和方法,主要有可信度方法、证据理论、基于概率的贝叶斯推理方法等。

目前,在人工智能中,处理不确定性问题的主要数学工具有概率论和模糊数学。

目前常用的不确定性推理的数学方法主要有基于概率的似然推理(PlausibleReasoning)、基于模糊数学的模糊推理(FuzzyReasoning)、可信度方法,以及使用人工神经网络算法、遗传算法的计算推理等。

1.3基本问题

所有的不确定性推理方法都必须解决3个问题:

(1)表示问题

表示问题指的是采用什么方法描述不确定性。

在专家系统中,“知识不确定性”一般分为两类:一是规则的不确定性,二是证据的不确定性。

一般用(E→H,f(H,E))来表示规则的不确定性,f(H,E)即相应规则的不确定性程度,称为规则强度。一般用(命题E,C(E))表示证据的不确定性,C(E)通常是一个数值,代表相应证据的不确定性程度,称为动态强度。

规则和证据不确定性的程度常用可信度来表示。

在专家系统MYCIN中,可信度表示规则及证据的不确定性,取值范围为[−1,1]。

当可信度取大于零时,其数值越大,表示相应的规则或证据越接近于“真”;当可信度小于零时,其数值越小,表示相应的规则或证据越接近于“假”。

(2)语义问题

语义问题指上述表示和计算的含义是什么,即对它们进行解释。即需要对规则和证据的不确定性给出度量。

对于证据的不确定性度量C(E),需要定义在下述3种典型情况下的取值:E为真,C(E)=?E为假,C(E)=?对E一无所知,C(E)=?规则的不确定性度量f(H,E),需要定义在下述3种典型情况下的取值:若E为真,则H为真,这时f(H,E)=?若E为真,则H为假,这时f(H,E)=?E对H没有影响,这时f(H,E)=?

(3)计算问题

计算问题主要指不确定性的传播和更新。即计算问题定义了一组函数,求解结论的不确定性度量。

主要包括3方面:

不确定性的传递算法已知前提E的不确定性C(E)和规则强度f(H,E)求结论H的不确定性即定义函数f1,使得C(H)=f1(C(E),f(H,E))结论不确定性合成由两个独立的证据E1和E2求得的假设H的不确定性C1(H)和C2(H),求证据E1和E2的组合导致的假设H的不确定性即定义函数C(H)=f2(C1(H),C2(H))组合证据的不确定性算法已知证据E1和E2的不确定性C1(E)和C2(E),求证据E1和E2的析取和合取的不确定性即定义函数C(E1∧E1)=f3(C(E1),C(E2));C(E1∨E2)=f4(C(E1),C(E2))

组合证据的不确定性的计算已经提出了多种算法,用得最多的是如下3种:

最大最小法C(E1∧E2)=min{C(E1),C(E2)}C(E1∨E2)=max{C(E1),C(E2)}概率方法C(E1∧E2)=C(E1)×C(E2)C(E1∨E2)=C(E1)+C(E2)−C(E1)×C(E2)有界方法C(E1∧E2)=max{0,C(E1)+C(E2)−1}C(E1∨E2)=min{1,C(E1)+C(E2)}2.概率方法

有完善的理论,被最早用于不确定性知识的表示和处理。但因条件概率不易给出、计算量大等原因,应用受了限制。

2.1基础知识

(1)条件概率定义

P(B|A)=P(AB)/P(A)称为事件A发生的条件下事件B的条件概率

(2)全概率公式

设事件A1,A2,…,An互不相容,其和为全集。则对于任何事件B:P(B)=Σ(P(Ai)×P(B|Ai))

一般的,如果一个集合含有我们所研究问题中涉及的所有元素,那么就称这个集合为全集,通常记作U。

(3)贝叶斯公式

设事件A1,A2,…,An互不相容,其和为全集。则对于任何事件B:P(Ai|B)=P(Ai)×P(B|Ai)/P(B)

贝叶斯公式可以用条件概率公式证明:

推导:P(Ai|B)=P(AiB)/P(B)#条件概率公式=P(Ai)×P(B|Ai)/P(B)#分子代入条件概率公式证明:P(Ai|B)=P(Ai)×P(B|Ai)/P(B)=P(AiB)/P(B)#分子代入条件概率公式=P(Ai|B)#条件概率公式

用全概率公式代入贝叶斯公式,可以得到贝叶斯公式的另一种形式:

P(Ai∣B)=P(Ai) P(B∣Ai)Σi[P(Ai)P(B∣Ai)]P(A_i|B)=frac{P(A_i)P(B|A_i)}{Sigma_i[P(A_i)P(B|A_i)]}P(Ai​∣B)=Σi​[P(Ai​)P(B∣Ai​)]P(Ai​) P(B∣Ai​)​

其中:

P(Ai)是事件Ai的先验概率P(B|Ai)是在事件Ai发生条件下事件B的条件概率P(Ai|B)是在事件B发生条件下事件Ai的后验概率。先验概率是指根据以往经验和分析得到的概率。后验概率指某件事已经发生,计算这件事发生的原因是由某个因素引起的概率(根据结果求原因的概率)。2.2经典概率方法

(1)单条件

设有产生式规则:IFETHENHi(其中,E为前提条件,Hi为结论)用条件概率:P(Hi|E)表示证据E条件下,Hi成立的确定性程度

(2)复合条件

对于复合条件:E=E1ANDE2AND…ANDEm用条件概率:P(Hi|E1,E2,…,Em)表示E1,E2,…,Em出现时,结论Hi的确定性程度2.3逆概率方法

在实际中,求条件E出现情况下结论Hi的条件概率P(Hi|E)非常困难。但是求逆概率P(E|Hi)要容易的多。

比如:E代表咳嗽,以Hi代表支气管炎

P(Hi|E),咳嗽的人中有多少是患支气管炎,统计工作量较大P(E|Hi),患支气管炎的人有多少咳嗽,统计就容易多了

如果前提条件E表示,用Hi表示结论,用贝叶斯公式就可得到:

P(Hi∣E)=P(Hi) P(E∣Hi)Σi[P(Hi)P(E∣Hi)]P(H_i|E)=frac{P(H_i)P(E|H_i)}{Sigma_i[P(H_i)P(E|H_i)]}P(Hi​∣E)=Σi​[P(Hi​)P(E∣Hi​)]P(Hi​) P(E∣Hi​)​

当已知Hi的先验概率,结论Hi成立时E的条件概率P(E|Hi)就可以求Hi的条件概率。

多个证据E1,E2,…,Em和多个结论H1,H2,…,Hn,则可以进一步扩充为:

P(Hi∣E1,E2,...,Em)=P(Hi)P(E1∣Hi)P(E2∣Hi)...P(Em∣Hi)Σ[P(Hi)P(E1∣Hi)P(E2∣Hi)...P(Em∣Hi)]P(H_i|E_1,E_2,...,E_m)=frac{P(H_i)P(E_1|H_i)P(E_2|H_i)...P(E_m|H_i)}{Σ[P(H_i)P(E_1|H_i)P(E_2|H_i)...P(E_m|H_i)]}P(Hi​∣E1​,E2​,...,Em​)=Σ[P(Hi​)P(E1​∣Hi​)P(E2​∣Hi​)...P(Em​∣Hi​)]P(Hi​)P(E1​∣Hi​)P(E2​∣Hi​)...P(Em​∣Hi​)​

3.可信度方法

可信度是指人们根据以往的经验对某个事物或现象为真的程度的一个判断,或者说是人们对某个事物或现象为真的相信程度。

3.1可信度的基本概念

3.1.1可信度的定义

可信度最初定义为信任与不信任的差。

CF(H,E)=MB(H,E)-MD(H,E)

CF(CertaintyFactor,确定性因子)是由证据E得到假设H的可信度。

MB(MeasureBelief)称为信任增长度,表示E的出现使结论H为真的信任值增长程度。

MB(H,E)=1当P(H)=1时MB(H,E)=(max(P(H|E),P(H)}-P(H))/(1-P(H))其他情况

MD(MeasureDisbelief)称为不信任增长度

MD(H,E)=1当P(H)=0时MD(H,E)=(min(P(H|E),P(H)}-P(H))/(-P(H))其他情况

根据以上定义,可以得到:

CF(H,E)=MB(H,E)-0当P(H|E)>P(H)时CF(H,E)=0P(H|E)=P(H)时CF(H,E)=0-MD(H,E)当P(H|E)0时,MD(H,E)=0当MD(H,E)>0时,MB(H,E)=0

(2)值域

0≤MB(H,E)≤10≤MD(H,E)≤1-1≤CF(H,E)≤1

(3)典型值

CF(H,E)=1时,P(H|E)=1,MB(H,E)=1,MD(H,E)=0CF(H,E)=-1时,P(H|E)=0,MB(H,E)=0,MD(H,E)=1CF(H,E)=0时,P(H|E)=P(H),MB(H,E)=0,MD(H,E)=0,表示E对H无影响

(4)H的信任增长度等于非H的不信任增长度

MB(H,E)=MD(¬H,E)MD(H,E)=MB(¬H,E)

(5)H的可信度对非H的可信度之和等于0

CF(H,E)+CF(¬H,E)=0

(6)可信度与概率的区别

概率:P(H)+P(¬H)=1且0≤P(H),P(¬H)≤1可信度:-1≤CF(H,E)≤1

**(7)对于同一前提E,若支持多个不同的结论Hi,则

ΣCF(Hi,E)≤1

实际应用中,P(H)和P(H|E)的值很难获得,因此CF(H,E)的值由领域专家给出。

3.2可信度模型

3.2.1规则的不确定性的表示

可信度(CF)模型中,规则用产生式规则表示:

IFETHENH(CF(H,E))

3.2.2证据的不确定性表示

可信度(CF)模型中,证据E的不确定性也用可信度因子CF表示,取值范围为[-1,1],典型值为:

证据E肯定为真:CF(E)=1证据E肯定为假:CF(E)=-1证据E一无所知:CF(E)=0

3.2.3组合证据的不确定性的计算

E=E1ANDE2AND…ANDEnCF(E)=min({CF(E1),CF(E2),…,CF(En)}’E=E1ORE2OR…OREnCF(E)=max({CF(E1),CF(E2),…,CF(En)}

3.2.4否定证据的不确定性计算

CF(¬E)=-CF(E)

3.2.5不确定性推理

证据肯定存在,即CF(E)=1时,则CF(H)=CF(H,E)CF(E)≠1时,则CF(H)=CF(H,E)×max{0,CF(E)}CF(E)<0时,CF(H)=0多条相互独立的规则分别推出相同结论,结论合成综合可信度算法分别对每个规则用第二步公式求出CF,即CF1(H),CF2(H)…对E1、E2求综合可信度CF(H)=CF1(H)+CF2(H)-CF1(H)×CF2(H)当CF1,CF2≥0时CF(H)=CF1(H)+CF2(H)+CF1(H)×CF2(H)当CF1,CF2

人工智能导论考前整理

以下均为个人观点(也参考资料得到侵删),仅供参考,可考试前用

我们学校的考点是基本都在上面了(考题雷达嘿嘿),不同学校不太一样,以下是我之前考前边复习边整理的内容

第一章

1.人工智能(ArtificialIntelligence)的概念:

将人类智能(部分)植入机器,使其更“聪明”地灵活服务于社会。

斯腾伯格关于“智能”的定义:智能是个人从经验中学习、理性思考、记忆重要信息,以及应付日常生活需要的认知能力。

能力:掌握和运用知识技能所需的个性心理特征。一般分为一般能力与特殊能力两类。(观察力、记忆力、思维力、想像力、注意力;绘画能力、音乐能力)

智力:也称“智能”、“智慧”。获得知识和运用知识解决实际问题时须具备的心理条件或特征。包括观察力、记忆力、想像力、思维能力,其核心是抽象思维能力。

(人工智能的研究往往涉及对人的智能本身的研究。其它关于动物或其它人造系统的智能也普遍被认为是人工智能相关的研究课题。)

2.智慧:

智慧表示智力器官的终极功能,指人辨析判断和发明创造的能力。 

智能:(1)智谋与才能。(2)指智力。 

动物有智力,但不能说有智慧;动物有察言观色的能力,察言观色的能力甚至超过人类,在觅食过程中,某些动物也会简单地使用工具;不同的动物,智力水平是不同,但不具备智慧。

3.图灵测试:

要点:

 (1)指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。

  (2)进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。

4.中文屋:

观点:无论计算机多么智能,绝不能说计算机具有“善良”或“同理心”。

5.弱人工智能与强人工智能

 6.启发法和算法:想办法算,和直接用一个公式7.适用于人工智能解决的问题:

(1)我认为医疗诊断适用于人工智能,人工智能在医疗领域中主要应用于医疗机器人、智能药物研发、智能诊疗、智能影像识别、智能健康管理。其中智能诊疗就是将人工智能技术用于辅助诊疗中,让计算机“学习”专家医生的医疗知识,模拟医生的思维和诊断推理,从而给出可靠诊断和治疗方案。智能诊疗场景是人工智能在医疗领域最重要、也最核心的应用场景。

(2)用具有条码扫描的收银机来购物:单纯的条码扫描机不是。

(3)ATM:如果加一个人脸识别,就属于人工智能了。

(4)适用,人工智能目前在围棋中应用于围棋算法,例如:AlphaGo,它的人工智能就在神经网络中。它能快速感知,快速的感知围棋的盘面,获取较优的下棋选择;深度模仿“脑”,通过人类6-9段高手的棋局来进行模仿学习,在棋盘产生类似人类棋手的走法;自学成长“脑”,以深度模仿“脑”为基础,通过不断的与之前的“自己”训练提高下棋的水平,自己和自己下棋;全局分析“脑”,利用自学成长“脑”学习对整个盘面的赢面判断,实现从全局分析整个棋局。

8.适用于:

搜索算法与拼图;二人博弈;自动推理;产生式系统与专家系统;细胞自动机;神经计算;进化计算;知识表示;不确定性推理

9.人工智能的历史:

1950年,艾伦·图灵提出了图灵测试,将其作为机器智能的度量。1956年,在美国达特茅斯学院的“达特茅斯夏季人工智能研究计划”会议上,人工智能研究领域正式诞生,是AI赢得其名称、使命和主要参与者的时刻,因此被广泛地认为是AI的诞生。1958年赫伯特·西蒙和艾伦·纽厄尔演示了第一个AI程序,名称为逻辑理论家(LT)。1958年约翰·麦卡锡发明了著名的Lisp编程语言。1960年代,M·马斯特曼与剑桥大学的同事们设计了语义网络,用于机器翻译。1963年伦纳德·武赫和查尔斯·瓦斯勒发表了关于模式识别的论文,描述了第一个机器学习程序。1965年,E·费根鲍姆开创了Dendral,一个推断有机化合物分子结构的软件。这是首套专家系统。1974年,T·肖特列夫演示了MYCIN程序,一个非常实用的基于规则的医学诊断方法。1966年,机器翻译失败了。1970年,连接主义遭到遗弃。1971年至1975年,美国DARPA对卡内基梅隆大学的语音理解研究项目感到沮丧。1973年,受莱特希尔的“人工智能:综合调查”报告的影响,英国大幅度缩减AI的研究。1973-74,美国DARPA削减了一般性AI学术研究经费。1980年,美国人工智能学会(AAAI)在斯坦福大学召开了第一届全国大会。1982年,日本启动了第五代计算机系统(FGCS)项目,用于知识处理。1980年代中期,机器学习出现了,当时发明了决策树模型,并且以软件形式推出。该模型具有可视化、易说明的特点。

这一点为PPT内容,大家可自己去看看,查找整理

10.6个定律:

11、人工智能发展趋势:

(I)整体出发:

(1)人工智能技术进入大规模商用阶段,人工智能产品全面进入消费级市场

(2)基于深度学习的人工智能的认知能力将达到人类专家顾问级别。

(3)人工智能实用主义倾向显著,未来将成为一种可购买的智慧服务。

(4)人工智能技术将严重冲击劳动密集型产业,改变全球经济生态。

(5)人工智能自主学习将成为主要目标

(II)文件出发:

2017年7月8日《国务院关于印发新一代人工智能发展规划的通知》(国发〔2017〕35号),三步走战略:

(1)到2020年人工智能总体技术和应用与世界先进水平同步,人工智能产业成为新的重要经济增长点,人工智能技术应用成为改善民生的新途径。

(2)到2025年人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平,人工智能成为带动我国产业升级和经济转型的主要动力

(3)到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心,智能经济、智能社会取得明显成效,为跻身创新型国家前列和经济强国奠定重要基础。

12、图灵测试的争议和批评:

可以用机械的查表方法而不是智能来通过图灵测试。

中文屋:房间里的人不是在学习或理解中文,而仅仅是在处理符号。同样,计算机运行程序,接收、处理以及使用符号回答,而不必学习或理解符号本身的意思是什么。

中文屋也推翻了图灵测试。

13、我所思考的人工智能的未来(论述题):

(1)智能技术将深入到社会方方面面,彻底重塑传统制造业。对劳动力的冲击,将影响就业。企业如果不能从规模化、标准化向个性化、智慧化转型,将很难存活下去。

(2)人工智能和物联网相结合,给生活带来更多的方便。人工智能可以和各种电器连在一起,如:智能家居、智能厨房,用一个屏幕就能操控家电,给我们的生活带来便利。人工智能还能应用于更多领域,给人类更多的便利。

(3)人工智能具备自主学习的能力,能够自己实现更多的技术。

(4)服务型人工智能随处可见,它们具备医疗知识、教育知识等,能帮助社会。

14、机器人定律漏洞:

我认为的两个漏洞:(1)如何定义“人”,如果有心人将机器人对“人”的定义不明确或更改“人”的定义都会导致这个定律成为伤害人类的规矩。(2)如何定义人处于危险之中,如果没有明确的界定,把处于危险的人类定义为已死亡,则不能履行这个规则。(3)伤害人类的定义也有问题,如果有心人输入人类的程序能够使其他人的利益受到伤害,但是不在机器人定义的伤害人类范围,这还是不利的。

15、导论书的学科定义:16、导论书的智能的地位:第二章

盲目搜索的概念:

包括:

深度优先搜索(DFS,DepthFirstSearch)

广度优先搜索(BFS,BreadthFirstSearch)

迭代加深的深度优先搜索(DFS-ID,IterativedeepeningDFS)

 

 

2.生成与测试:

提出可能的解,即提议,然后逐个检查提议,看看是否有提议构成解。

生成与测试范式的伪代码:

{while没找到解,但仍有更多备选方案

[生成可能的解

 测试是否满足所有的问题约束]

Endwhile}

IF找到了解,则宣布成功,并输出解

Else 宣布失败

3.为什么说搜索是人工智能系统的重要组成部分?

(1)我认为,搜索算法是解决问题的一种方式,而AI是通过将现实世界中的问题,通过抽象的技术输入到计算机中,利用某种算法达到最终的目标,即解决问题。(搜索算法)

(2)搜索中的“状态空间”是非常贴切现实生活很多随机事件的模型。一个解决问题的过程,就是在不断地状态转移,通过定义搜索空间,利用一定的算法,达到最终的状态。甚至梯度下降也是一种搜索的过程。

(3)搜索问题作为一种基于目标的解决问题的方案,是AI中很重要的一部分。在AI中,我们很多时候都是在做决策的过程,我们需要通过各种状态,各种环境的输入,来决定最终的动作,来实现最优的解,这些都是靠搜索实现的。

4.回溯是如何改进完全枚举法的?

(1)完全枚举法是一种浪费,回溯是对完全枚举的改进。

(2)回溯法的方法:回溯法按深度优先策略,从根节点出发搜索解空间树。算法搜索至解空间树的任一结点时,先判断该节点是否包含问题的解。如果不包含,则跳过对以该节点为根的子树的搜索,逐层向其它祖先节点回溯。否则,进入该子树,继续按照深度优先策略搜索。

(3)例如n皇后问题,完全枚举法要列出所有可能的结果,但是回溯法要是判断某个位置不包含这个解,它就不会再按照那个解去列,而是跳过该节点的子树,放弃部分解决方案死角,但是完全枚举法不会跳过。

5.在何种情况下,DFS比BFS好?又在何种情况下,BFS比DFS好?

(I)DFS:

(1)深度优先,适用于连通性强的。

(2)如果树很深并且解决方案很少,BFS可能会更快。

(3)如果树很宽,BFS可能需要太多内存,所以选择DFS

(4)如果解决方案频繁但位于树的深处用DFS

(5)当您需要搜索整个树时,通常会使用深度优先搜索。因为BFS要求您存储整个“前沿”,但DFS只需要存储当前元素的父节点列表。

(II)BFS:

(1)广度优先,由于一层一层访问,适用于有目标求最短路的步数,每一层为每一步。

(多数情况下运行BFS所需的内存会大于DFS需要的内存(DFS一次访问一条路,BFS一次访问多条路)。比如求最少步数的解,最少交换次数的解。

(2)因为BFS搜索过程中遇到的解一定是离根最近的,所以遇到一个解,一定就是最优解,此时搜索算法可以终止。这个时候不适宜使用DFS,因为DFS搜索到的解不一定是离根最近的,只有全局搜索完毕,才能从所有解中找出离根的最近的解。(当然这个DFS的不足,可以使用迭代加深搜索ID-DFS去弥补)

(3)如果您知道解决方案离树的根不远,那么广度优先搜索(BFS)可能会更好。

6.衡量问题求解性能的测量指标有哪些?

分类指标,回归指标

第三章

举例说明什么是启发法?

(1)启发法:将需要达到问题的目标状态分成若干子目标,通过实现一系列的子目标最终达到总的目标。是针对模型求解方法而言的,是一种逐次逼近最优解的方法。不能保证最优,但是近似最优。

(2)举例:粒子群算法,粒子群算法是模拟群体智能所建立起来的一种优化算法,粒子群算法可以用鸟类在一个空间内随机觅食为例,所有的鸟都不知道食物具体在哪里,但是他们知道大概距离多远,最简单有效的方法就是搜寻目前离食物最近的鸟的周围区域。所以,粒子群算法就是把鸟看成一个个粒子,并且他们拥有位置和速度这两个属性,然后根据自身已经找到的离食物最近的解和参考整个共享于整个集群中找到的最近的解去改变自己的飞行方向,最后我们会发现,整个集群大致向同一个地方聚集。而这个地方是离食物最近的区域,条件好的话就会找到食物。

(3)爬山法,爬山法是完完全全的贪心法,每次都鼠目寸光的选择一个当前最优解,因此只能搜索到局部的最优值。

(4)蚁群算法,是一种模拟蚂蚁觅食行为的模拟优化算法,其基本思想是:当蚂蚁沿着一条路径到达终点以后会马上返回来,这样,短的路径蚂蚁往返一次的时间就短,意味着重复频率快,因而在单位时间内走过的蚂蚁数量就多,洒下的信息素也就多,自然会有更多的蚂蚁被吸引过来,从而洒下更多的信息素;而长路径则相反,因此最后越来越多的蚂蚁集中到了较短的路径上,最短路径也就近似找到了。

(5)模拟退火思想,模拟退火其实也是一种贪心算法,但是它的搜索过程引入了随机因素。模拟退火算法以一定的概率来接受一个比当前解要差的解,因此有可能会跳出这个局部的最优解,达到全局的最优解。模拟退火算法(SimulatedAnnealing,SA)的思想借鉴于固体的退火原理,当固体的温度很高的时候,内能比较大,固体的内部粒子处于快速无序运动,当温度慢慢降低的过程中,固体的内能减小,粒子的慢慢趋于有序,最终,当固体处于常温时,内能达到最小,此时,粒子最为稳定。模拟退火算法便是基于这样的原理设计而成。

(6)遗传算法(GeneticAlgorithm,GA)起源于对生物系统所进行的计算机模拟研究。它是模仿自然界生物进化机制发展起来的随机全局搜索和优化方法,借鉴了达尔文的进化论和孟德尔的遗传学说。其本质是一种高效、并行、全局搜索的方法,能在搜索过程中自动获取和积累有关搜索空间的知识,并自适应地控制搜索过程以求得最佳解。

2.启发法在搜索中的具体作用?

(1)启发式搜索就是在状态空间中的搜索对每一个搜索的位置进行评估,得到最好的位置,再从这个位置搜索直到目标。

(2)heuristic(启发式):一种帮助你不断迭代最后找到局部最优解的方法。

 (3)

3.主要搜索算法要哪些?各有什么特点?

(1)广度优先搜索(BFS)

(2)深度优先搜索(DFS)

(3)爬山法(HillClimbing),DFS的变形,不同的是每次选择的是最优的一个子结点,即局部最优解。爬山是一种贪婪算法,选择到目标的估计剩余距离的启发式测度最小的节点。不记录未选择的路径。(爬山算法,是一种局部贪心的最优算法.该算法的主要思想是:每次拿相邻点与当前点进行比对,取两者中较优者,作为爬坡的下一步)。

关于爬山法补充:

 

(4)最佳优先算法,是DFS和BFS的结合,每次找到的是所有结点中最好估计值的那个结点,找到的是全局最优解。会做出探索哪个节点和探索多少个节点的决定维持着开放节点数和封闭节点数的列表封闭节点是不再探索的节点,将形成解的基础开发节点列表中,按照节点接近目标状态的启发式估计值顺序排列每迭代一次,考虑在开放列表中最有希望的节点。

 

(5)集束搜索法,是一种启发式搜索算法,通常用在解空间比较大的情况下,为了减少搜索所占用的空间和时间,在每一步深度扩展的时候,剪掉一些质量比较差的结点,保留下一些质量较高的结点。这样减少了空间消耗,并提高了时间效率,但缺点就是有可能存在潜在的最佳方案被丢弃,因此,BeamSearch算法是不完全的,一般用于解空间较大的系统中。

这个搜索只扩展最好的W节点(指定W)。

使用更大的光束会使你走的路更短

这是为了减轻bfs带来的内存开销

(6)回溯法,找到所有选择,走不通则回溯。

4.搜索算法的度量

(1)完备性,如果存在的话,总是找到一个解决方案。

(2)最优性,当它返回尽可能低的路径开销时。

(3)可采性,如果总是存在一个最优解,当实际存在时。

(4)单调性,如果在原点和目标之间找到所有可能节点的最优路径,则搜索算法是单调的。

5.最陡爬山法是如何改进爬山法的?

 最陡爬山算法是在首选爬山算法上的一种改良,它规定每次选取邻近点价值最大的那个点作为爬上的点.

6.最佳优先搜索是如何改进爬山法的?

爬山法是局部最优,最佳优先搜索。每次找到的是所有结点中最好估计值的那个结点,找到的是全局最优解。如果是爬山法要找到全局最优,需要多次使用爬山算法(需要从不同的初始解开始爬山),从多个局部最优解中找出最优解,而这个最优解也有可能是全局最优解。

7.解释集束法的工作原理。8.你了解的其它知情搜索法还有那些?

(1)A*搜索算法,最常见的最佳优先搜索形式。A*搜索算法是最佳和完整的。

(2)与或树,处理的问题包含博弈或拼图

(3)双向搜索,双向搜索的想法是通过向前搜索目标状态,并从已知的目标状态向后搜索到起始状态来找到解路径,当两条路径相遇时搜索终止。有可能产生“前沿问题”,即前后两端搜索试图相遇会产生指数级存储需求

(4)分支定界法,通常,把全部可行解空间反复地分割为越来越小的子集,称为分支;并且对每个子集内的解集计算一个目标下界(对于最小值问题),这称为定界。在每次分枝后,凡是界限超出已知可行解集目标值的那些子集不再进一步分枝,这样,许多子集可不予考虑,这称剪枝。这就是分枝定界法的主要思路。

(5)约束满足搜索,在解决问题前简化问题。

第四章1、博弈树是如何帮助评估游戏中走子的?

博弈树的极小化极大评估,井字游戏中启发式评估的:

(1)等价类忽略原则

(2)最有利原则(启发式评估 E(X)=N(X)-N(O);启发式评估值E(X)如何向上渗透——极小化极大评估技术

E(X)对于Max来说越大越好,对min来说越小越好,它是最有价值的。所以Max选大的,Min选小的,大的对它是价值最小的。

2、启发式评估,为什么它能在大规模博弈树的游戏中发挥作用?

(1)最有利原则

(这部分好像之前整理的时候删掉了,大家自己查一下资料吧)

3、剪枝

4、一些补充

5、什么是组合爆炸?请举例说明

在问题规模很大时,会产生很多种可能。围棋的走法,有很多。井字游戏可能有3^9次方(叉空格不填)。

6、在游戏走子中,对称性是什么意思?

等价类忽略原则

7.以Nim(31,第一堆石子数量为3,第二堆石子数量为1)为例,说明极小化极大评估的原理。

方框中1表示MAX赢了,圆框中1 表示min输了;极小化极大评估:让最不利于己方的情况最小发生

8、Alpha-Beta剪枝的原理是什么?为什么它有助于极小化极大评估?

发现一种走子方式很差时,将彻底放弃这种走子方式,不去花费资源发现这到底有多差。

用以减少极小化极大算法(Minimax算法)搜索树的节点数。

第五章1.等价运算

3.谓词

 

4.评述“逻辑是知识表示的简明语言”这一观点?

能清楚表达事件

5.对命题逻辑和谓词逻辑的表达力的不同做出评论?

命题逻辑只考虑逻辑连接词的逻辑特性不考虑命题本身,谓词逻辑既考虑连接词的逻辑特性,还深入分析到命题内部考虑谓词及其量词的逻辑特性。

在谓词逻辑中,除研究复合命题的命题形式、命题联结词的逻辑性质和规律外,还把命题分析成个体词、谓词和量词等非命题成分,研究由这些非命题成分组成的命题形式的逻辑性质和规律。

命题逻辑显然可以看作谓词逻辑的一个子集。因为谓词逻辑中一般是允许出现0元谓词的。全部由0元谓词的构成的公式就是命题逻辑公式了。

6.你认为逻辑作为AI知识表示的语言有什么限制?7.命题逻辑论证方法有哪两种,且举例说明;8.什么叫谓词逻辑?

谓词逻辑是对命题逻辑的扩充,在其基础上引入了个体词、谓词、量词及函数符号。其中,个体词表示研究对象中可以独立存在的具体或抽象个体,个体的取值范围称为个体域或论域;谓词用来刻画个体的行为属性或个体间的相互关系;量词表示个体的数量属性;数符号的引入则为命题的符号化带来方便。

9.命题逻辑包括哪些基本运算10.试用反演法解决国王智者的问题。11.表示命题逻辑:

     (1)如果你的年龄大到法定成年年龄,那么你应该有了选举权

     (2)如果汽油价格继续上涨,那么开车的人就会少

     (3)如果今天既没有下雨,也没有下雪,则今天没有降水。

第六章1.一些概念

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇