博舍

人工智能之主观贝叶斯方法及贝叶斯公式附加相关习题 人工智能主观贝叶斯方法

人工智能之主观贝叶斯方法及贝叶斯公式附加相关习题

概率论基础条件概率全概率公式基本贝叶斯公式

产生式规则:

IFETHENHi

主观贝叶斯的基本思想

知识不确定性的表示

以下为公式V:

几率函数

取值范围为[0,+∞]所以几率函数就是把p(x)放大了证明关于LN的公式推导思路:

LS和LN的性质LS和LN的关系

证明:Conclusion:当证据E愈是支持H为真时,则LS的值应该愈大;当证据E对H愈是重要时,则相应的LN的值应该愈小。

证据不确定性的表示1、单个证据不确定性的表示方法2、组合证据的不确定性的确定方法不确定性推理计算确定性证据以上两个公式的推导过程分别如下:相关例题:

题解:P(H1|E1)说明了由于证据E1的发生,使得H1发生的概率由0.03增加到了将近八倍故选C、0.2362当然这题还可以继续做下去,如果大家愿意可以继续看下去,如果不感兴趣,可以直接看下面的不确定性证据知识点(1)如果证据E们确定出现,就用这个公式那么P(H1|E1)=0.2362在R3中,由于LS=1,表明E3对H3没有影响,即P(H3|E3)=P(H3)=0.3(2)若证据E们确定不出现,则用这个公式

再看几个题

由于前面有题解过程,所以这两题很简单,故选D、A

不确定性证据杜达公式

结论不确定性的合成和更新算法1、结论不确定性的合成算法相关例题:

答案:AAAB

题解:这就涉及到这篇文章前面的内容以及结论不确定的合成算法解法一:合成法解法二:更新法这就是运用了我前面写的公式

2、结论不确定性的更新算法其思想是,按照顺序使用规则对先验概率进行更新,再把得到的更新概率当做先验概率,更新其他规则,这样继续更新直到所有的规则使用完。Conclusion

有一定难度的两道题

Pro1、题解:注:在R3中H1是证据,所以上图最后一个式子是P(H2)+P(H2|H1)-P(H2)/1-P(H1)*…相关知识:Pro2、题解:

之后我会持续更新,如果喜欢我的文章,请记得一键三连哦,点赞关注收藏,你的每一个赞每一份关注每一次收藏都将是我前进路上的无限动力!!!↖(▔▽▔)↗感谢支持!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇