博舍

语音识别中的声学模型(AM)和语言模型(LM) 语音识别技术和语音合成技术的区别

语音识别中的声学模型(AM)和语言模型(LM)

本文主要受参考自: http://blog.csdn.net/by21010/article/details/51506292 以及: https://www.zhihu.com/question/35833334

最近看essen源码,感觉对于ASR的一下之前的比较基础的算法很生疏,在知乎上看到这个链接,感觉讲的比较通俗易懂,拿来再理解一下。

decoder是根据字典,声学模型和语音模型,将输入的语音特征失量序列转化为字符序列。

声学模型是对声学、语音学、环境的变量、说话人性别、口音等的差异的知识表示,而语言模型是对一组字序列构成的知识表示。

声学模型用lstm+ctc训练,得到语音特征到音素的映射; 语言模型用SRILM工具做LM的训练得到3-gramand4-gram,是词与词、词与句子的映射, 字典是字词对应的音素index集合,是字词和音素之间的映射

‘’’

haibing注:所谓声学模型就是把语音的声学特征分类对应到(解码)音素或字词这样的单元 语言模型接着把字词解码成一个完整的句子

‘’‘

先说语言模型: 

语言模型表示某一字序列发生的概率,一般采用链式法则,把一个句子的概率拆解成器中的每个词的概率之积。设W是由w1,w2,...,wn组成的,则P(W)可以拆成(由条件概率公式和乘法公式):

P(W)=P(w1)P(w2/w1)P(w3/w1,w2)...P(wn/w1,w2,..wn-1), 每一项都是在之前所有词的概率条件下,当前词的概率。

由马尔卡夫模型的思想,最常见的做法就是用N-元文法,即假定某一个字的输出只与前面N-1个字出现的概率有关系,这种语言模型叫做n-gram模型(一般n取3,即trigram), 这时候我们就可以这么表示:

 P(W)=P(w1)P(w2|w1)P(w3|w1,w2)P(w4|w1,w2,w3)...P(wn/wn-1,wn-2,...,w1) #条件太长的时候,概率就不好估计了,三元文法只取前两个词

     = P(w1)P(w2|w1)P(w3|w1,w2)P(w4|w2,w3)...P(wn/wn-1,wn-2) 

对于其中的每一项条件概率都可以用贝叶斯公式求出,在所有的语料中统计出相邻的字发生的概率,再统计出单个字出现的概率,代入即可。 

‘’‘

wangyun( https://www.zhihu.com/people/maigo )注: 

做一下解释,这个地方的n-gram是根据字符串序列建立的,所以一个n-gram就相当于词组,必然会有一些词组没有出现过,但是也存在发生的概率,所以需要算法生成这些生僻词组的概率。

直观的将:n大了之后主要的问题是许多n-gram在训练数据中没有出现过。如果一个n-gram整体没有出现过,但去掉一个词后得到的(n-1)-gram出现过,那么估计出的概率就是0;如果连这个(n-1)-gram都没有出现过,那么概率就无法估计了。常用的解决的办法就是:smoothing(eg:Good-Turingsmoothing)和fallbacktolower-ordern-grams(采用更小的n-gram)。见《数学之美》

’‘’

再说声学模型: 

声学模型的任务是计算P(X/W),即给定文字之后发出这段语音的概率(最后利用贝叶斯,求P(X/W)是使用)。首先第一问题:怎么才能知道每个单词发什么音呢?这就需要另外一个模块,叫做词典,看eesen的源码在数据准备阶段就是先求出词对应音素的dict,它的作用就是把单词串转化成音素串,然后再求的语言模型和训练声学模型(用lstm+ctc训练声学模型).

有了dict的帮助,声学模型就知道给定的文字串该依次发哪些音了。不过为了计算语音跟音素串的匹配程度,还需要知道每个音素的起止时间。这是利用动归来进行的,可以高效的找到音素的分界点,使得没一段语音与音素的匹配程度(用概率表示)之积最大。实际使用的算法称为viterbi算法,它不仅仅考虑了每一段语音和音素的匹配程度,还考虑了各个音素之间转换的概率(转换概率通过HMM估计)实际中使用的比音素更小的单位,原理一样(不是很确定,值得是一帧数据(25ms)吗,一帧不到不到一个音素的长度?)

在求音素分界点的过程中,以及在有了分界点后计算时,声学模型都需要知道怎样计算一个音素与一段语音信号的匹配程度。要做这件事,需要找到一种合适的表示语音信号的方法。一般是把语音信号分成许多帧,对于每一帧,通过傅里叶变换等一系列操作,把它转换成一个特征向量。最常用的特征是MFCC,从训练数据中,我们可以提取出大量的特征向量,以及它们对应的音素;利用这些数据,就可以训练从特征到音素的分类器。前些年最常用的分类器是高斯混合模型(GMM),它的大致原理是估计出每个音素的特征向量的分布,然后在识别阶段,计算每一帧的特征向量由相应音素产生的概率,把每一帧的概率相乘,就得到。现在,神经网络渐渐火了起来,它可以直接给出,用贝叶斯公式可以转换成,再相乘得到。整体思路:具体来说就是输入一段语音信号,要找到一个文字序列(由字或者词组成),是的它与语音信号的匹配程度最高。这个匹配程度,一般都是用概率来表示的,用X表示语音信号,用W表示文字序列,则要解的是下面这个问题:但是一般语音是由文字产生的,已知文字才能发出语音,所以对于上面的条件概率公式我们想要已知结果求该条件下发生概率,这时候自然而然就想到贝叶斯公式:,由于我们要优化W,P(X)可以看作常数,可以省略分母。由上边的步骤来看,求文字串、计算语言模型概率、求音素串、求音素分界点、计算声学模型概率几个步骤似乎是依次进行的。其实不然,在实际编码过程中,因为文字串、音素分界点都有非常多种可能,枚举是不现实的。实际中,这几个步骤同时进行并互相制约,随时砍掉不够优的可能,最终在可接受的时间内求出最优解: W*=argmaxP(W|X)。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇