GMM-HMM语音识别原理详解.doc

上传人:白大夫 文档编号:3252183 上传时间:2019-08-06 格式:DOC 页数:2 大小:16.50KB
返回 下载 相关 举报
GMM-HMM语音识别原理详解.doc_第1页
第1页 / 共2页
亲,该文档总共2页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《GMM-HMM语音识别原理详解.doc》由会员分享,可在线阅读,更多相关《GMM-HMM语音识别原理详解.doc(2页珍藏版)》请在三一文库上搜索。

1、GMM-HMM语音识别原理详解本文简明讲述GMM-HMM在语音识别上的原理,建模和测试过程。1. 什么是Hidden Markov Model?HMM要解决的三个问题:1) Likelihood2) Decoding3) Training2. GMM是什么?怎样用GMM求某一音素(phoneme)的概率?3. GMM+HMM大法解决语音识别3.1 识别3.2 训练3.2.1 Training the params of GMM3.2.2 Training the params of HMM=1. 什么是Hidden Markov Model?ANS:一个有隐节点(unobservable)和可

2、见节点(visible)的马尔科夫过程(见详解)。隐节点表示状态,可见节点表示我们听到的语音或者看到的时序信号。最开始时,我们指定这个HMM的结构,训练HMM模型时:给定n个时序信号y1.yT(训练样本), 用MLE(typically implemented in EM) 估计参数:1. N个状态的初始概率2. 状态转移概率a3. 输出概率b-在语音处理中,一个word由若干phoneme(音素)组成;每个HMM对应于一个word或者音素(phoneme)一个word表示成若干states,每个state表示为一个音素用HMM需要解决3个问题:1) Likelihood: 一个HMM生成一串

3、observaTIon序列x的概率 the Forward algorithm其中,t(sj)表示HMM在时刻t处于状态j,且observaTIon = x1,。.,xt的概率,aij是状态i到状态j的转移概率,bj(xt)表示在状态j的时候生成xt的概率,2)Decoding: 给定一串observaTIon序列x,找出最可能从属的HMM状态序列 the Viterbi algorithm在实际计算中会做剪枝,不是计算每个可能state序列的probability,而是用Viterbi approximaTIon:从时刻1:t,只记录转移概率最大的state和概率。记Vt(si)为从时刻t-1的所有状态转移到时刻t时状态为j的最大概率:记为:从时刻t-1的哪个状态转移到时刻t时状态为j的概率最大;进行Viterbi approximation过程如下:然后根据记录的最可能转移状态序列进行回溯:3)Training: 给定一个observation序列x,训练出HMM参数 = aij, bij the EM (Forward-Backward) algorithm这部分我们放到3. GMM+HMM大法解决语音识别中和GMM的training一起讲-

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 其他


经营许可证编号:宁ICP备18001539号-1