生成模型和判别模型的区别
先上结论公式上看生成模型:学习时先得到P(x,y)P(x,y)P(x,y),继而得到P(y∣x)P(y|x)P(y∣x)。预测时应用最大后验概率法(MAP)得到预测类别yyy。判别模型:直接学习得到P(y∣x)P(y|x)P(y∣x),利用MAP得到yyy。或者直接学得一个映射函数y=f(x)y=f(x)y=f(x)。
直观上看生成模型:关注数据是如何生成的判别模型:关注类别之间的差别
先直观理解我们先从直观上来理解一下:
生成模型:源头导向。尝试去找到底这个数据是怎么产生的,然后再对一个信号进行分类。基于你学习到的生成假设,判断哪个类别最有可能产生这个信号,这个样本就属于那个类别。判别模型:结果导向。并不关心样本数据是怎么生成的,它只关心样本之间的差别,然后用差别来简单对给定的一个样本进行分类。举个例子借用一下这位老兄的例子:
假如你的任务是识别一个语音属于哪种语言。例如对面一个人走过来,和你说了一句话,你需要识别出她说的到底是汉语、英语还是法语等。那么你可以有两种方法达到这个目的:
学习每一种语言,你花了大量精力把汉语、英语和法语等都学会了,我指的学会是你知道什么样的语音对应什么样的语言。然后再有人过来对你说,你就可以知道他说的是什么语音.不去学习每一种语言,你只学习这些语言之间的差别,然后再判断(分类)。意思是指我学会了汉语和英语等语言的发音是有差别的,我学会这种差别就好了。那么第一种方法就是生成方法,第二种方法是判别方法。
再深入理解监督学习的任务:学习一个模型,应用这一模型,对给定的输入预测相应的输出。这一模型的一般形式为一个决策函数或者条件概率分布:
决策函数y=f(x)y=f(x)y=f(x)直接得到输入xxx到输出yyy(某个类别)的映射函数。(例如神经网络和SVM等属于这种)条件概率分布P(y∣x)P(y|x)P(y∣x)预测时用最大后验概率**(MAP)y=argmaxyiP(yi∣x)y=argmax_{y_i}P(y_i|x)y=argmaxyiP(yi∣x)的方法决定输出类别yyy。(例如贝叶斯分类器就属于这种)监督学习方法又可以分为生成方法(generativeapproach)和判别方法(discriminativeapproach)。所学到的模型分别为生成模型(generativemodel)和判别模型(discriminativemodel)**。生成模型先由数据学习联合概率分布P(x,y)P(x,y)P(x,y)和先验概率分布P(x)P(x)P(x),然后求出条件概率分布P(y∣x)=P(x,y)/P(x)P(y|x)=P(x,y)/P(x)P(y∣x)=P(x,y)/P(x)作为预测的模型,即得到生成模型:P(y∣x)=P(x,y)P(x)P(y|x)=frac{P(x,y)}{P(x)}P(y∣x)=P(x)P(x,y)生成方法强调的是:通过得到P(x,y)P(x,y)P(x,y),继而得到P(y∣x)P(y|x)P(y∣x)。
这样的方法之所以称为生成方法,是因为模型表示了给定输入xxx产生输出yyy的生成关系。这种方法一般建立在统计学和Bayes理论的基础之上。
特点从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度,但它不关心到底划分各类的那个分类边界在哪。生成方法能还原出联合概率分布,而判别方法不能生成方法的学习收敛速度更快、即当样本容量增加的时候,学到的模型可以更快地收敛于真实模型当存在隐变量时,仍可以用生成方法学习,此时判别方法不能用典型的生成模型朴素贝叶斯分类器马尔科夫模型高斯混合模型判别模型判别方法由数据直接学习决策函数f(x)f(x)f(x)或者条件概率分布P(y∣x)P(y|x)P(y∣x)作为预测的。判别模型利用正负例和分类标签,关注在判别模型的边缘分布。判别方法强调的是:对给定的输入xxx,应该预测什么样的输出yyy。
特点判别方法寻找不同类别之间的最优分类面,反映的是异类数据之间的差异判别方法利用了训练数据的类别标识信息,直接学习的是条件概率P(Y|X)或者决策函数f(X),直接面对预测,往往学习的准确率更高;由于直接学习条件概率P(Y|X)或者决策函数f(X),可以对数据进行各种程度上的抽象、定义特征并使用特征,因此可以简化学习问题。缺点是不能反映训练数据本身的特性典型的判别模型k近邻法感知机决策树logistic回归最大熵模型SVMboosting方法条件随机场这里推荐一篇AndrewNg讨论判别模型和生成模型的paper:OnDicriminativevs.Generativeclassfier:AcomparisonoflogisticregressionandnaiveBayes
References:《统计学习方法》李航生成模型与判别模型