博舍

国科大 高级人工智能 期末复习总结 人工智能课程期末考试答案解析大全图片

国科大 高级人工智能 期末复习总结

大家好!又到了期末时间,各位国科大的师弟师妹们,师兄帮你们总结了高级人工智能的考点,如果你好好复习了,那么这篇博文能帮你上90;如果没有也不要怕,认真看了这篇博文,也能保你70。下面我们开始吧,更多考试知识点请关注公众号“算法岗从零到无穷”。转载请注明出处。

目录往届考试知识点知识点罗列概念搜索深度学习命题逻辑与一阶谓词逻辑命题逻辑一阶谓词逻辑群体智能强化学习博弈论老师上课讲的考点行为主义符号主义必复习的知识点有时间可复习的知识点例题讲解大胆押题选择题计算题参考博客往届考试知识点BPGAN搜索田忌赛马TransactionDatabase感知机玻尔兹曼机A*搜索语义网络:一阶谓词逻辑,模糊逻辑蚁群优化算法和粒子群算法网络交互博弈遗传算法信息熵deepbeliefnetworks人工智能三大分支野人与传教士多臂赌博机每年的大题都是强化学习知识点罗列概念人工智能概念性定义:机器智能,类脑智能,群体智能人工智能三大学派:符号主义学派,联结主义学派,行为主义学派搜索深搜一般来说时间复杂度大但空间复杂度小,广搜空间相反。深度优先适合深度大的树,不适合广度大的树,广度优先正相反图A*算法是最优的条件是一致性;树A*算法是最优的条件是可采纳性传教士和野人问题的A*搜索爬山法搜索可在任意位置起始重复:移动到最好的相邻状态,不允许向山下移动如果没有比当前更好的相邻状态,结束当未知梯度的时候,用蚁群算法或者粒子群算法遗传算法基于适应度函数,在每步中保留N个最好状态配对杂交操作产生可选的变异问题的目标函数天然的可作为遗传算法的适应度函数贪婪最佳优先搜索不是完备的爬山算法与模拟退火算法:爬山算法就是一只兔子看到一座山峰,然后跳来跳去最后跳上山顶模拟退火就是一只喝醉的兔子,一开始乱跳,过一会酒醒了,然后再跳上山顶。爬山算法也是一个用来求解最优化问题的算法,每次都向着当前上升最快的方向往上爬,但是初始化不同可能会得到不同的局部最优值。模拟退火算法就可能跳出这种局部最优解的限制。模拟退火算法也是贪心算法,但是在其过程中引入了随机因素,以一定的概率接受一个比当前解要差的解,并且这个概率随着时间的推移而逐渐降低。深度学习局部感受野的基础:图像的空间联系也是局部的像素联系较为紧密,而距离较远的像素相关性则较弱局部感受野的作用:减少了需要训练的权值数目。一张图片距离很远的点关联很小,所以我们就相当于从全连接方式省下了一部分参数,只进行局部运算,所以参数就少了权值共享的基础:图像的一部分的统计特性与其他部分是一样的。在输入的不同位置检测同一种特征。这也就是为什么卷积层往往会有多个卷积核(甚至几十个,上百个),因为权值共享后意味着每一个卷积核只能提取到一种特征,为了增加CNN的表达能力,当然需要多个核。权值共享的作用:对于一张图像,计算的方式一样,也就是特征提取的方式一样,这个过程就是我们拿着卷积核的那个框框,不断在原输入图像上滑动的过程,所有框框内部的数据计算方式一样,这就是“参数共享”,这样就大大减少了参数值,毕竟权重都是一样的嘛。卷积层的作用:特征提取padding的作用:每次卷积,图像都缩小,这样卷不了几次就没了;-相比于图片中间的点,图片边缘的点在卷积中被计算的次数很少。这样的话,边缘的信息就易于丢失。为了解决这个问题,我们可以采用padding的方法。我们每次卷积前,先给图片周围都补一圈空白,让卷积之后图片跟原来一样大,同时,原来的边缘也被计算了更多次。padding的种类:0填充,边界复制,镜像,块复制池化层的作用:对不同位置的特征进行聚合统计。池化层可以非常有效地缩小矩阵的尺寸,从而减少最后全链层中的参数,使用池化层既可以加快计算速度也有防止过拟合问题的作用池化层的分类:最大池化用的最多,平均池化用的相对比较少池化层没有需要学习的参数为什么神经元要加偏置项:如果没有偏置的话,我们所有的分割线都是经过原点的,但是现实问题并不会那么如我们所愿.都是能够是经过原点线性可分的为什么感知机无法处理异或:Hopfield神经网络:Hopfield神经网络,他是反馈式类型,其神经元的结构功能及其在⽹络中的地位是⼀样的。他的学习规则是基于灌输式学习,即网络的权值不是通过训练出来的,而是按照一定规则计算出来的,将要求解的问题转化为优化问题的能量函数,⽹络的稳定状态是优化问题的解,其权值一旦确定就不在改变。自编码器,RBM,DBN,DBM的概念自编码器:我们将input输入一个encoder编码器,就会得到一个code,这个code也就是输入的一个表示,那么我们怎么知道这个code表示的就是input呢?我们加一个decoder解码器,这时候decoder就会输出一个信息,那么如果输出的这个信息和一开始的输入信号input是很像的(理想情况下就是一样的),那很明显,我们就有理由相信这个code是靠谱的。所以,我们就通过调整encoder和decoder的参数,使得重构误差最小,这时候我们就得到了输入input信号的第一个表示了,也就是编码code了。因为是无标签数据,所以误差的来源就是直接重构后与原输入相比得到。自编码器可用于深度学习参数的预训练,有稀疏自编码器、降噪自编码器等分类。RBM:受限玻尔兹曼机,假设有一个二部图,每一层的节点之间没有链接,一层是可视层,即输入数据层(v),一层是隐藏层(h),如果假设所有的节点都是随机二值变量节点(只能取0或者1值),同时假设全概率分布p(v,h)满足Boltzmann分布,我们称这个模型是RestrictedBoltzmannMachine(RBM)。首先在可见层输入数据data如上图的v1,刚开始网络的权值和偏置值会初始化一个值,快速学习算法就会根据这些权值在可见层已知的情况下计算每个隐层的神经元的概率,此时我就得到了所有隐层神经元的值h1,我们这时候把可见层当做是未知的,根据类似的求概率的方法求出可见层神经元的值v2,此时我们的学习算法得到了他们的差值v1-v2,然后根据这个差值进行调整权值和偏置值,这就是一次权值调整了,然后我们把v2看做已知的,按照上面类似的求法继续求出h2,然后再次求出v3,此时在和v1相减,得到误差信号,重新调整权值,然后不断的这样迭代,随着迭代的次数增加,整个系统就会达到热平衡状态,此时系统就收敛了。DBN:深度置信网络,DBNs由多个限制玻尔兹曼机(RestrictedBoltzmannMachines)层组成。这些网络被“限制”为一个可视层和一个隐层,层间存在连接,但层内的单元间不存在连接。隐层单元被训练去捕捉在可视层表现出来的高阶数据的相关性。DBM:深度玻尔兹曼机是一种以受限玻尔兹曼机(RBM)为基础的深度学习模型,其本质是一种特殊构造的神经网络。深度玻尔兹曼机由多层受限玻尔兹曼机叠加而成的,不同于深度置信网络(DeepBeliefNetwork),深度玻尔兹曼机的中间层与相邻层是双向连接的。接下来举例说明深度玻尔兹曼机的基本结构和特征。如图1所示是一个包含两个隐藏层(hiddenlayer)的深度玻尔兹曼机。h1和h2代表隐藏层(hiddenlayer)各节点的状态,W1和W2表示神经网络层间链接的权值(weights)。v表示可见层(visiblelayer)各节点的状态。每个节点的状态都在0和1之间二选一,也就是说v,h∈{0,1}。为方便显示,这里忽略了模型中各单元的偏置(bias)。LSTM与GRUGAN:GAN的核⼼思想来源于博弈论的纳什均衡:⽣成器(⽣成⼀个数据,会被判别结果优化)+判别器(判断是否是⽣成器⽣成的):⽣成器的⽬的是尽量去学习真实的数据分布。把噪声数据z(也就是我们说的假数据)通过⽣成模型G,伪装成了真实数据x。判别器的⽬的是尽量正确判别输⼊数据是来⾃真实数据还是来⾃⽣成器。各⾃提⾼⾃⼰的⽣成能⼒和判别能⼒,这个学习优化过程就是寻找⼆者之间的⼀个纳什均衡感知机DP命题逻辑与一阶谓词逻辑

每一个逻辑都有两个内容:从语义的角度能够蕴含一些新的知识库(新的知识,是正确的)。还会从语法的角度推演,自动推演出新的知识库(每一个sen都是一堆符号,通过形式上推演,推演出新的sen,这个和语义无关,是从符号上推演出的一种规则)。所以每一个逻辑含有两个内容:语义上蕴含+形式上推演。那么我们在研究的时候会证明两个性质:可靠性和完备性。

命题逻辑

任何一个逻辑都有自己的语言,我们会看这个逻辑的syntax语法和semantics语义两个部分。命题逻辑中proposition表示一个宣告式的句子,必须为True或者False。比如P=NP,虽然没人证明,但是到底,它一定是真或者假,二者之一;所以它也是一个命题。不可能同时为true和false。命题逻辑(propositionlogic)是应用一套形式化规则对以符号表示的描述性陈述进行推理的系统。在命题逻辑中,一个或真或假的描述性陈述被称为原子命题,若干原子命题可通过逻辑运算符来构成复合命题。如果已知若干命题,则可通过命题联结词(connectives)对已有命题进行组合,得到新命题。这些通过命题联结词得到的命题被称为复合命题(compoundproposition)。【其实就是与或非条件和双向条件的来回转化或者证明】一般会通过真值表来计算复合命题的真假。逻辑等价:命题逻辑中的几个证明例题:将任何式子改成合取范式的形式,先把双箭头和单箭头去掉,neg进入括号,最后只有andor的这种式子:归结原理的例子:

一阶谓词逻辑

在谓词逻辑中,原子命题可分解成个体和谓词。个体是可独立存在的事或物,谓词则是用来刻划个体具有某些性质.一个陈述句可分为两个部分,分别是个体和谓词。谓词在形式上就是陈述句中刻画关系的部分,譬如可“x

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇