搜档网
当前位置:搜档网 › HTK孤立词识别回顾

HTK孤立词识别回顾

HTK孤立词识别回顾
HTK孤立词识别回顾

什么是HTK

孤立词识别的简单结构

data/: data/train data/test

analysis/:

training/:

model/:

def/:

test/:

第一步创建语音文件录音

命令:HSLab any_name.sig

yes/no识别yes与no都录10次记为

yes01.sig yes02.sig…

no01.sig no02.sig…

第二步:声学分析

抽取yes和no的mfcc特征参数。保存在data/train/lab与data/train/sig 下。

命令:HCopy.exe -A -D -C analysis.conf -S targetlist.txt

其中analysis.conf为抽取参数配置文件,

内容为:

#

# Example of an acoustical analysis configuration file

#

SOURCEFORMAT = HTK # Gives the format of the speech files TARGETKIND = MFCC_0_D_A # Identifier of the coefficients to use

# Unit = 0.1 micro-second :

WINDOWSIZE = 250000.0 # = 25 ms = length of a time fram

TARGETRATE = 100000.0 # = 10 ms = frame perioficity

NUMCEPS = 12 # Number of MFCC coeffs (here from c1 to c2) USEHAMMING = T # Use of Hamming function for windowing frames PREEMCOEF = 0.97 # Pre-emphasis coefficient

NUMCHANS = 26 # Number of filterbank channels

CEPLIFTER = 22 # Length of cepstral liftering

# The End

targetlist.txt说明抽取源文件路径和目标文件的保存路径,内容如下:

data/train/sig/yes01.sig data/train/mfcc/yes01.mfcc

data/train/sig/yes02.sig data/train/mfcc/yes02.mfcc

data/train/sig/yes03.sig data/train/mfcc/yes03.mfcc

data/train/sig/yes04.sig data/train/mfcc/yes04.mfcc

data/train/sig/yes05.sig data/train/mfcc/yes05.mfcc

data/train/sig/yes06.sig data/train/mfcc/yes06.mfcc

data/train/sig/yes07.sig data/train/mfcc/yes07.mfcc

data/train/sig/yes08.sig data/train/mfcc/yes08.mfcc

data/train/sig/yes09.sig data/train/mfcc/yes09.mfcc

data/train/sig/yes10.sig data/train/mfcc/yes10.mfcc

data/train/sig/no01.sig data/train/mfcc/no01.mfcc

data/train/sig/no02.sig data/train/mfcc/no02.mfcc

data/train/sig/no03.sig data/train/mfcc/no03.mfcc

data/train/sig/no04.sig data/train/mfcc/no04.mfcc

data/train/sig/no05.sig data/train/mfcc/no05.mfcc

data/train/sig/no06.sig data/train/mfcc/no06.mfcc

data/train/sig/no07.sig data/train/mfcc/no07.mfcc

data/train/sig/no08.sig data/train/mfcc/no08.mfcc

data/train/sig/no09.sig data/train/mfcc/no09.mfcc

data/train/sig/no10.sig data/train/mfcc/no10.mfcc

第三步:HMM原型定义

建立文件yes.hmm、no.hmm、sil.hmm保存在model/下。yes.hmm内容如下:

~o 39

~h "yes"

6

2

39

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

39

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

3

39

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

39

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

4

39

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

39

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

5

39

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

39

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

6

0.0 0.5 0.5 0.0 0.0 0.0

0.0 0.4 0.3 0.3 0.0 0.0

0.0 0.0 0.4 0.3 0.3 0.0

0.0 0.0 0.0 0.4 0.3 0.3

0.0 0.0 0.0 0.0 0.5 0.5

0.0 0.0 0.0 0.0 0.0 0.0

注:HMM有很多种形式,对于单词的语音识别而言,常用的结构是left-right的形式。对于一个汉字音节一般使用6个

状态的单高斯,或者3状态的2高斯混合来描述。这两种结构的描述文件如下:

6个状态的单高斯,文件名“digit5_1.hmm”

~h "digit5"

13

8

2

13

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

13

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

3

13

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 4

13

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 13

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 5

13

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 13

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 6

13

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 7

13

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 13

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 8

0.0 0.5 0.5 0.0 0.0 0.0 0.0 0.0

0.0 0.0 0.5 0.5 0.0 0.0 0.0 0.0

0.0 0.0 0.0 0.5 0.5 0.0 0.0 0.0

0.0 0.0 0.0 0.0 0.5 0.5 0.0 0.0

0.0 0.0 0.0 0.0 0.0 0.5 0.5 0.0

0.0 0.0 0.0 0.0 0.0 0.0 0.5 0.5

0.0 0.0 0.0 0.0 0.0 0.0 0.0 1.0

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

3状态的2高斯混合,文件名“digit5_2.hmm”

~h "digit5"

13

5

2 2

1 0.5

13

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

13

1.0

1 0.5

13

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

13

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

3 2

1 0.5

13

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

13

1.0

1 0.5

13

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

13

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

4 2

1 0.5

13

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

13

1.0

1 0.5

13

0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0

13

1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

5

0.0 0.5 0.5 0.0 0.0

0.0 0.0 0.5 0.5 0.0

0.0 0.0 0.0 0.5 0.5

0.0 0.0 0.0 0.0 1.0

0.0 0.0 0.0 0.0 0.0

本文中使用第二种结构的HMM。

no.hmm、sil.hmm有着相同的内容

第四步:HMM训练

1.初始化:(建立文件夹yn/train/init)

命令:HInite.exe-A –D –T 1 –H model/yes.hmm –S trainlist.txt –M mode/proto yes

trainlist.txt内容为:

data/train/mfcc/yes01.mfcc

data/train/mfcc/yes02.mfcc

data/train/mfcc/yes03.mfcc

data/train/mfcc/yes04.mfcc

data/train/mfcc/yes05.mfcc

data/train/mfcc/yes06.mfcc

data/train/mfcc/yes07.mfcc

data/train/mfcc/yes08.mfcc

data/train/mfcc/yes09.mfcc

data/train/mfcc/yes10.mfcc

no、sil类似地初始化。

2.训练

命令:HRest.exe -A -D -T 1 -H model/proto/yes.hmm -S trainlist.txt -M model/proto yes

no、sil类似地训练。

第五步:任务定义

1.建立语法规则和字典

建立语法规则文件gram.txt(在yn文件夹下),内容为:

/*

* Task grammar

*/

$WORD = YES | NO;

( { SIL } [ $WORD ] { SIL } )

建立字典文件dict.txt(在yn文件夹下),内容为:

YES [yes] yes

NO [no] no

SIL [sil] sil

2.建立任务网络

命令:HParse gram.txt net.slf

HSGen -s net.slf dict.txt

第六步:识别

1.建立文件hmmlist.txt(在yn文件夹下)文件,内容为:

yes

no

sil

注意每一列最后留一个空格。

2.创建待识别信号并抽取mfcc参数(文件为yes01.mfcc)

3.命令:Hvite.exe -H model/proto/yes.hmm -H model/proto/ no.hmm -H model/proto/sil.hmm -i reco.mlf -w net.slf dict.txt hmmlist.txt yes.mfcc

(是model/proto/no.hmm 中间没有空格)

识别结果自动存放在文件reco.mlf

#!MLF!#

"yes01.rec"

0 34300000 yes -17771.425781

.

基于DTW算法的语音识别系统实现

基于DTW算法的语音识别系统实现 作者:吴晓平, 崔光照, 路康 作者单位:郑州轻工业学院信息与控制工程系,河南省,郑州市,450002 刊名: 电子工程师 英文刊名:ELECTRONIC ENGINEER 年,卷(期):2004,30(7) 被引用次数:13次 参考文献(5条) 1.祝晓阳;卢中宁;崔光照数字信号处理芯片TMS320VC5402的语音接口设计[期刊论文]-郑州轻工业学院学报(自然科学版) 2002(02) 2.陈志鑫;郭华伟基于TMS320C54xDSP的实时语音识别系统[期刊论文]-半导体技术 2001(04) 3.张勇C/C++语言硬件程序设计 2003 4.楼顺天基于MATLAB的系统分析与设计 2000 5.赵力语音信号处理 2003 引证文献(13条) 1.石太佳.王晓君基于LPMCC的语音识别系统实现[期刊论文]-电声技术 2010(1) 2.舒鹏飞.颜卫.徐魁基于ADSP的语音识别系统[期刊论文]-科协论坛(下半月) 2009(7) 3.吕涛.刘百芬.燕贤青一种基于定点DSP的语音识别算法实现[期刊论文]-华东交通大学学报 2008(6) 4.张钢.朱铮涛.何淑贤应用DTW的语音(声纹)鉴别技术研究[期刊论文]-中国测试技术 2007(2) 5.白志强.唐永哲基于动态时间规整的飞控系统故障诊断[期刊论文]-计算机仿真 2007(1) 6.王佑民.江城.吴丰博用FPGA实现基于内容的音频检索系统[期刊论文]-中国制造业信息化 2007(17) 7.何燕玲.马建国声控机器人的特定人孤立词汉语识别系统设计[期刊论文]-西南科技大学学报(自然科学版)2006(1) 8.杨占军.杨英杰.王强基于DSP的语音识别系统的设计与实现[期刊论文]-东北电力大学学报(自然科学版)2006(2) 9.王振浩.杜凌艳.李国庆.高树永动态时间规整算法诊断高压断路器故障[期刊论文]-高电压技术 2006(10) 10.高丙朋基于DSP的小词汇量语音识别系统[学位论文]硕士 2006 11.贺翠英说话人识别研究及DSP实现[学位论文]硕士 2006 12.白志强飞行控制系统故障检测研究与仿真软件开发[学位论文]硕士 2006 13.田强基于Sphinx汉语语音评价系统探讨[学位论文]硕士 2005 本文链接:https://www.sodocs.net/doc/3f3705761.html,/Periodical_dzgcs200407007.aspx

特定人孤立词语音识别的研究毕业论文

本科学生毕业论文(设计) 题目(中 文): 特定人孤立词语音识别的研究 (英文): Research Of Speaker-dependent Isolated-word Speech recognition 姓名学号院(系)专业、年级指导教师

毕业设计(论文)原创性声明和使用授权说明 原创性声明 本人重承诺:所呈交的毕业设计(论文),是我个人在指导教师的指导下进行的研究工作及取得的成果。尽我所知,除文中特别加以标注和致谢的地方外,不包含其他人或组织已经发表或公布过的研究成果,也不包含我为获得及其它教育机构的学位或学历而使用过的材料。对本研究提供过帮助和做出过贡献的个人或集体,均已在文中作了明确的说明并表示了谢意。 作者签名:日期: 指导教师签名:日期: 使用授权说明 本人完全了解大学关于收集、保存、使用毕业设计(论文)的规定,即:按照学校要求提交毕业设计(论文)的印刷本和电子版本;学校有权保存毕业设计(论文)的印刷本和电子版,并提供目录检索与阅览服务;学校可以采用影印、缩印、数字化或其它复制手段保存论文;在不以赢利为目的前提下,学校可以公布论文的部分或全部容。

作者签名:日期:

科技学院本科毕业论文(设计)诚信声明 本人重声明:所呈交的本科毕业论文(设计),是本人在指导老师的指导下,独立进行研究工作所取得的成果,成果不存在知识产权争议,除文中已经注明引用的容外,本论文不含任何其他个人或集体已经发表或撰写过的作品成果。对本文的研究做出重要贡献的个人和集体均已在文中以明确方式标明。本人完全意识到本声明的法律结果由本人承担。 本科毕业论文(设计)作者签名: 二○○八年月日

孤立词语音识别程序

孤立词语音识别程序

信息处理仿真实验语音处理部分 一、实验目的 按所学相关语音处理的知识,自己设计一个孤立词语音识别程序,分析所设计系统的特性。熟悉不同模块间如何进行有效的组合,以及模 块内的设计,重点掌握特征参数的提取和模式识别方法,并对不同的特 征参数提取方法和模式匹配方法有大概的了解,知道其不同的优缺点。 二、实验内容 1、熟悉预处理、特征参数提取、模式匹配三个模块的原理,并设计 这三个模块的matlab子程序。 2、设计主程序,将上述3个模块合理组合构成一个系统,训练模板并 测试。 三、实验原理及设计步骤 1、孤立词语音识别系统:先用端点检测将语音中有用的语音部分提取出来(即 将头部和尾部的静音部分除掉),然后提取语音信号的Mel尺度倒谱参数(MFCC),进行动态归整(DTW算法)后与模板库里面的标准语音作比较,具体流程如下: 图3.1孤立词语音识别系统 2、各模块解析 ⑴预处理:包括反混叠失真滤波器、预加重器、端点检测和噪声滤波器。这里 将预加重器和噪声滤波器放在下一个模块里,所以预处理主要进行端点检测以捕捉到数据中的语音信息。 端点检测采用双门限法来检测端点。同时,利用过零率检测清音,用短时能量检测浊音,两者配合。整个语音信号的端点检测可以分为四段:静音、过渡段、语音段、结束。程序中使用一个变量status来表示当前 所处的状态。 在静音段,如果能量或过零率超越了低门限,就应该开始标记起始点,进入过渡段。 在过渡段中,由于参数的数值比较小,不能确信是否处于真正的语音段,因此只要

两个参数的数值都回落到低门限以下,就将当前状态恢复到静音状态。 而如果在过渡段中两个参数中任意一个超过了高门限,就可以确信 进入语音段了。 一些突发性的噪声可以引发短时能量或过零率的数值很高,但是往往不 能维持足够长的时间,这些可以通过设定最短时间门限来判别。当 前状态处于语音段时,如果两个参数的数值降低到低门限以下,而 且总的计时长度小于最短时间门限,则认为这是一段噪音,继续扫 描以后的语音数据。否则就标记好结束端点,并返回 ⑵特征参数提取:常用的语音识别参数有线性预测参数(LPC),线性预测倒谱 参数(LPCC)和Mel 尺度倒谱参数(MFCC)等。这里提取语音信号的Mel 尺度倒谱参数(MFCC),步骤如下: 预 加 重汉明窗傅立叶变 换取模三角滤波函数组取对数离散余弦变换语音 信号MFCC 归一化导谱提升计算差分系数并合 并特征参数 图3.2特征参数提取 分析: ①预加重 ()()-0.97(1)y n x n x n =- ②加汉明窗 ()()()w x n y n w n =? ③ FFT 1 2/0()()N j nk N w w n X k x n e π--==∑ 这里直接采用现成的FFT 快速算法。 ④对频谱进行三角滤波 程序采用归一化mel 滤波器组系数 ⑤计算每个滤波器的输出能量 120()ln ()()0N w m k S m X k H k m M -=??=≤< ??? ∑ ⑥离散余弦变换(DCT)得到MFCC ()1()()cos (0.5)/1,2,...,M m C n S m n m M n p π==-=∑ 通常协方差矩阵一般取对角阵,三角滤波器组的对数能量输出之间

用于孤立词识别的语音识别系统实验报告

用于孤立词识别的语音识别系统实验报告 语音是人际交流的最习惯、最自然的方式,它将成为让计算机智能化地与人通信,人机自然地交互的理想选择。让说话代替键盘输入汉字,其技术基础是语音识别和理解。语音识别将人发出的声音、音节、或短语转换成文字和符号,或给出响应执行控制,作出回答。 该系统用于数字0~9的识别,系统主要包括训练和识别两个阶段。实现过程包括对原始语音进行预加重、分帧、加窗等处理,提取语音对应的特征参数。在得到了特征参数的基础上,采用模式识别理论的模板匹配技术进行相似度度量,来进行训练和识别。在进行相似度度量时,采用DTW 算法对特征参数序列重新进行时间的对准。 一、 特征提取 1、端点检测 利用短时平均幅度和短时过零率进行端点检测,以确定语音有效范围 的开始和结束位置。 首先利用短时平均幅度定位语音的大致位置。做法为:(1)确定一个 较高的阈值MH,短时平均幅度大于MH 的部分一定是语音段。(2)分别沿这一语音段向两端搜索,大于某个阈值ML 的部分还是语音段,这样能较为准确地确定语音的起始点,将清音与无声段分开。因为清音的过零率远远高于无声段,确定一个过零率的阈值Z min , 从ML 确定的语音段向前搜 索不超过一帧的长度,短时过零率突然低于Z min 三倍的点被认为是语音的 起始点。 2、预加重 对输入的原始语音进行预加重,其目的是为了对语音的高频部分进行加重,增加语音的高频分辨率。假设在n 时刻的语音采样值为x(n),则经过预加重处理后的结果为: y(n)=x(n)+αx(n-1) α=0.98 3、分帧及加窗 语音具有短时平稳的特点,通过对语音进行分帧操作,可以提取其短时特性,便于模型的建立。帧长取为30ms ,帧移取为10ms ,然后将每帧信号用Hamming 窗相乘,以减小帧起始和结束处的信号不连续性。Hamming 窗函数为: w(n)=0.54-0.46cos(1 2-N n π) (0≤n ≤N-1) 该系统中,hamming 窗的窗长N 取为240。 设原始信号为s(n),加窗后为:

基于离散隐马尔科夫模型的语音识别技术

第24卷 第2期 2007年6月 河 北 省 科 学 院 学 报Journal of the Hebei Academy of Sciences Vol .24No .2June 2007 文章编号:1001-9383(2007)02-0008-04 基于离散隐马尔科夫模型的语音识别技术 高清伦,谭月辉,王嘉祯 (军械工程学院计算机工程系,河北石家庄 050003) 摘要:概述语音识别技术的基本原理,对当前三种主要识别技术———动态时间规整技术、隐含马尔科夫模型 技术及人工神经网络技术进行比较,重点介绍基于离散隐马尔科夫模型(DH MM )的语音识别系统的实现。关键词:语音识别;隐马尔科夫模型;动态时间规整;人工神经网络中图分类号:T N912.34 文献标识码:A Speech recogn iti on technology ba sed on d iscrete H MM GAO Q ing 2l un,TAN Yue 2hu i,WAN G J i a 2zhen (D epart m ent of Co m puter Engineering,O rdnance Engineering College,Shijiazhuang Hebei 050003,China ) Abstract:The conditi on and the basic p rinci p le of s peech recogniti on technol ogy are intr oduced,three differ 2ent kinds of s peech recogniti on syste m s such as DT W ,H MM ,ASR are compared,and p lace e mphasis on how t o realize DH MM in s peech recogniti on syste m is p resented e mphatically . Keywords:Speech recogniti on;H idden Markov Model (H MM );Dyna m ic Ti m e W ar p ing (DT W );A rtificial Neural Net w ork (ANN ) 语音识别技术是语音信号处理技术一个重要的研究方向,是让机器通过识别和理解过程把人 类的语音信号转变为相应的文本或命令的技术,它属于多维模式识别和智能计算机接口的范畴,涉及到声学、语音学、语言学、计算机科学、信号与信息处理和人工智能等诸多学科,是21世纪衡量一个国家信息科学技术发展水平的重要标准之一。 1语音识别技术概述 语音识别系统本质上是一种模式识别系统, 目前有很多语音识别算法,但其基本原理和基本 技术相似。一个完整的语音识别系统一般都包括有特征提取、模式匹配和参考模式库3个基本单元,它的基本结构如图1所示。 (1)特征提取 所谓特征提取就是从语音信号中提取用于语 音识别的有用信息,其基本思想是将预处理过的信号通过一次变换,去掉冗余部分,而把代表语音本质特征的参数抽取出来,如平均能量、平均跨零率、共振峰、LPC 系数、MFCC 系数等。 图1语音识别系统基本结构 (2)模式匹配 这是整个语音识别系统的核心,它是根据一定规则(如H MM )以及专家知识(如构词规则、语法规则、语义规则等),计算输入特征与参考模式 3收稿日期:2007-01-26 作者简介:高清伦(1976-),男,河北沧州人,硕士,主要从事信息工程理论应用方面的研究.

孤立词语音识别程序文件

信息处理仿真实验语音处理部分 一、实验目的 按所学相关语音处理的知识,自己设计一个孤立词语音识别程序,分析所设计系统的特性。熟悉不同模块间如何进行有效的组合,以及模块的设计,重点掌握特征参数的提取和模式识别方法,并对不同的特征参数提取方法和模式匹配方法有大概的了解,知道其不同的优缺点。 二、实验容 1、熟悉预处理、特征参数提取、模式匹配三个模块的原理,并设计这三个模块的matlab子程序。 2、设计主程序,将上述3个模块合理组合构成一个系统,训练模板并测试。 三、实验原理及设计步骤 1、孤立词语音识别系统:先用端点检测将语音中有用的语音部分提取出来 (即将头部和尾部的静音部分除掉),然后提取语音信号的Mel尺度倒谱参数(MFCC),进行动态归整(DTW算法)后与模板库里面的标准语音作比较,具体流程如下: 图3.1孤立词语音识别系统 2、各模块解析 ⑴预处理:包括反混叠失真滤波器、预加重器、端点检测和噪声滤波器。 这里将预加重器和噪声滤波器放在下一个模块里,所以预处理主要进行端点检测以捕捉到数据中的语音信息。 端点检测采用双门限法来检测端点。同时,利用过零率检测清音,用短时能量检测浊音,两者配合。整个语音信号的端点检测可以分为四段:静音、过渡段、语音段、结束。程序中使用一个变量status来表示当前所处的状态。 在静音段,如果能量或过零率超越了低门限,就应该开始标记起始点,进 入过渡段。 在过渡段中,由于参数的数值比较小,不能确信是否处于真正的语音段,因此只要 两个参数的数值都回落到低门限以下,就将当前状态恢复到静音状态。 而如果在过渡段中两个参数中任意一个超过了高门限,就可以确信进入语 音段了。

Microsoft Speech SDK孤立词语音识别

基于Microsoft Speech SDK实现用户孤立词识别的过程如下: 1、初始化COM端口:在CWinApp的子类中,调用CoInitializeEx函数进行COM 初始化:::CoInitializeEx(NULL,COINIT_APARTMENTTHREADED); 2、创建识别引擎:微软Speech SDK 5.1 支持两种模式的:共享(Share)和独享(InProc)。一般情况下可以使用共享型,大的服务型程序使用InProc。如下:hr = m_cpRecognizer.CoCreateInstance(CLSID_SpSharedRecognizer);//Share hr = m_cpRecognizer.CoCreateInstance(CLSID_SpInprocRecognizer);//InProc 如果是Share型,直接到步骤3;如果是InProc型,必须使用ISpRecognizer::SetInput 设置输入:CComPtr cpAudioToken; hr = SpGetDefaultTokenFromCategoryId(SPCAT_AUDIOIN, &cpAudioToken); if (SUCCEEDED(hr)) { hr = m_cpRecognizer->SetInput(cpAudioToken, TRUE);} 或者:CComPtr cpAudio; hr = SpCreateDefaultObjectFromCategoryId(SPCAT_AUDIOIN, &cpAudio); hr = m_cpRecoEngine->SetInput(cpAudio, TRUE); 3、创建识别上下文接口:调用ISpRecognizer::CreateRecoContext 创建识别上下文接口:hr = m_cpRecoEngine->CreateRecoContext( &m_cpRecoCtxt ); 4、设置识别消息:调用SetNotifyWindowMessage 告诉Windows哪个是我们的识别消息,需要进行处理: hr = m_cpRecoCtxt->SetNotifyWindowMessage(m_hWnd, WM_RECOEVENT, 0, 0); 5、设置事件:最重要的事件是“SPEI_RECOGNITION”: const ULONGLONG ullInterest = SPFEI(SPEI_SOUND_START) | SPFEI(SPEI_SOUND_END) | SPFEI(SPEI_RECOGNITION) ; hr = m_cpRecoCtxt->SetInterest(ullInterest, ullInterest); 6、创建语法规则:语法规则分为两种,一种是听说式(dictation),一种是命令式(command and control---C&C)。首先利用ISpRecoContext::CreateGrammar 创建语法对象,然后加载不同的语法规则: //dictation hr = m_cpRecoCtxt->CreateGrammar( GIDDICTATION, &m_cpDictationGrammar ); if (SUCCEEDED(hr)) { hr = m_cpDictationGrammar->LoadDictation(NULL, SPLO_STATIC); }

基于Matlab仿真的孤立词语音识别技术研究

基于Matlab仿真的孤立词语音识别技术研究 摘要:研究一种改进的语音识别算法---改进的端点检测(滑动帧)动态时间规整(DTW)算法, 以一个能识别数字0~10的语音识别系统的实现过程为例,阐述了基于DTW算法的特定人孤立词语音识别的基本原理和关键技术。其中包括对语音端点检测方法、特征参数计算方法和DTW算法实现的详细讨论,最后给出了在Matlab下的编程方法和实验结果。 关键词:语音识别,端点检测,MFCC,动态时间规整算法,短时傅里叶变换Research Of Chinese Isolated Words Speech Recognition Based on Matlab Abstract: The paper researched an improved speech recognition system which is the moving frame of endpoint detection and simplified algorithm of Dynamic Time Warping (DTW) With an example of the realization of a 0~10 identifiable speech recognition system, the paper described the basic principles and key technologies of isolated word speech recognition based on DTW algorithm, including method of endpoint detection, calculation of characteristic parameters, and implementation of DTW algorithm. Programming method under Matlab and experimental results are given at the end of the paper. Key: speech recognition,endpoint detection,MFCC,DTW, Short time Fourier transform 1引言 近年来,语音识别已经成为一个非常活跃的研究领域。在不远的将来,语音识别技术有可能作为一种重要的人机交互手段,辅助甚至取代传统的键盘、鼠标等输入设备,在个人计算机上进行文字录入和操作控制。而在手持式PDA、智能家电、工业现场控制等应用场合,语音识别技术则有更为广阔的发展前景21世纪是信息和网络的时代,Internet和移动通信、固话通信的网络把全球各地连接起来。自然口语对话、电子商务、信息索取、数字图书馆、语音翻译、远程教育等一系列的人类活动都可在网络上实现。语音识别系统的出现,会让人更加自由的沟通,让人在任何地方,任何时间,对任何事都能够通过语音交互的方式,方便地享受到更多的社会信息资源和现代化服务。这必然会成为语音识别技术研究和应用的重要发展趋势[1][2]。 当前,根据识别的对象不同,语音识别任务大体可分为3类,即 (1)孤立词识别(isolated word recognition),

特定人孤立词语音识别系统的仿真与分析

西安工程科技学院学报 Jo urnal of Xi ’an University of Engineering Science and Technology  第21卷第3期(总85期)2007年6月Vol.21,No.3(Sum No.85) 文章编号:16712850X (2007)0320371203 收稿日期:2006212212 通讯作者:党幼云(19622),女,陕西省澄城县人,西安工程大学教授.E 2mail :xk 2dyy @https://www.sodocs.net/doc/3f3705761.html, 特定人孤立词语音识别系统的仿真与分析 马 莉,党幼云 (西安工程大学电子信息学院,陕西西安710048) 摘要:在MA TL AB 环境下利用语音工具箱Voice Box ,设计并实现了基于D TW 算法的特定人 的孤立词语音识别系统.论述了高效D TW 算法的基本原理及系统的实现过程.仿真结果表明,该系统对特定人的孤立词取得了良好的识别率.关键词:语音识别;MCC ;动态时间规整;MA TLAB 中图分类号:TN 912.34 文献标识码:A 0 引 言 语音识别是近年来十分活跃的一个研究领域.在不远的将来,语音识别技术有可能作为一种重要的人机交互手段,辅助甚至取代传统的键盘、鼠标等输入设备,在个人计算机上进行文字录入和操作控制.而在手持式PDA 、智能家电、工业现场控制等应用场合,语音识别技术则有更为广阔的发展前景[1]. 在特定人孤立词语音识别中,最为简单有效的方法是采用D TW (Dynamic Time Warping ,动态时间规整)算法,该算法基于动态规划(DP )的思想,解决了发音长短不一的模板匹配问题,是语音识别中出现最早、较为经典的一种算法[2].商业软件MA TL AB 以其强大的功能,已经成为工科研究人员的基本研究工具.信号处理更是MA TL AB 的强项,它自带的信号处理工具箱能有效缩短系统软件的开发周期. 本文借助MA TL AB 环境下的语音工具箱Voice Box ,基于D TW 算法的基本原理,实现了特定人孤立词语音识别系统,验证了该算法的有效性,同时该仿真为实际应用系统的硬件实现提供了一定的参考价值. 1特定人孤立词语音识别系统分析 一个完整特定人孤立词语音识别系统通常包括语音的输入,语音信号的预处理,特征提取,训练与识别等几个环节,基本构成如图1所示 . 图1 孤立词语音识别系统框图 语音识别的过程可以被看作模式匹配的过程,模式匹配是指根据一定的准则,使未知模式与模型库中的某一个模型获得最佳匹配的过程.模式匹配中需要用到的参考模板通过模板训练获得.在训练阶段,将特征参数进行一定的处理后,为每个词条建立一个模型,保存为模板库.在识别阶段,语音信号经过相

语种辨识

1语言辨识的基本概念 自动语言辨识(又称语种识别),是计算机分析处理一个语音片段以判别其所属语种的技术。随着当前全球合作的增长,各种余元之间的通信要求增加,这就对自动语言识别提出新的挑战,在机械能够懂得语言含义之前,必须辨别使用了哪种语言。自动语言辨识的任务在于快速准确的辨识出所使用的语言,目前它已经成为通信和信息领域一个新的学科增长点。自动语言辨识技术的学术特点在于它横跨技术的融合。对它的研究,不仅需要掌握信息理论和技术,而且需要具有多种信息处理的手段和方法。众所周知,语音中包含着多种信息,从语音中提取不同的信息进行处理也就形成了不同语言处理方法。从内容上分,语音中包含着所属语言种类的信息、说话内容的语义信息和说话人个体特征,因此从识别的角度来说,我们可以利用从语音中提取的这些信息进行识别,语音信息的识别可以分为语音识别、语言辨识和说话人识别。语音识别中要提取出包含在语音信号中的字词意思和言语内容,说话人识别则是从语音信号中获取说话人的身份,语言辨识是从语音信号中提取出包含的语言的种类(或方言的种类)。与语音识别和说话人识别不同的是,语言辨识利用的是语音信号中的语言学信息,而不考虑语音信号中的字词意思,不考虑说话人的个性。 语种识别在信息检索和军事领域都有很重要的应用,包括自动转换服务多语言信息补偿等。在信息服务方面, 很多信息查询中可提供多语言服务, 但一开始必须用多种语言提示用户选择用户语言。语种辨识系统必须预先区分用户的语言种类, 以提供不同语言种类的服务。这类典型服务的例子包括旅游信息、应急服务、以及购物和银行、股票交易。例如AT&T 向处理911 紧急呼救的社会机构和警察局推出语言热线服务。图1 说明了两个讲不同语言的人是如何通过一个多语言话音系统进行交流。自动语言辨识技术还能够用于多语言机器翻译系统的前端处理, 当对大量录音资料进行翻译分配时, 需要预先判定每一段语音的语言。随着信息时代的到来以及国际因特网的发展, 语言辨识越来越显示出其应用价值, 国际

HTK工具包孤立词识别系统(详细过程)

HTK工具包孤立词识别系统(详细过程) 1.前言 介绍HTK工具包建立孤立词识别系统,包含详细过程和可能出现的错误,分享错误分析和解决心得。主要参考书籍博客:HTK,https://www.sodocs.net/doc/3f3705761.html,/jamesju/blog/116151 2.孤立词识别系统 2.1搭建流程 A:创建语料库,brightness,channel,color各录制5次。 B:声学分析,把wavform的声音文件转换为mfcc格式。 C:模型定义,为词典里面的每一个词建立一个HMM原型。 D:模型训练,HMM模型初始化和迭代。 E:问题定义,即语法定义。 F:对测试结合进行识别 G:评测 2.2.工作环境的搭建 创建如下目录结构: (1) data/: 存储训练和测试数据(语音文件、语音标签、特征矢量文件)。 子目录: data/train/lab data/train/wav data/train/mfcc data/test/lab data/test/wav data/test/mfcc (2)analysis/:存储声学分析步骤的文件 (3)training/:存储初始化和训练步骤的文件 (4)model/:存储识别系统的模型(HMMS)的相关文件。子目录:model/proto (5)def/:存储任务定义的相关文件。 (6)test/:存储测试相关文件

2.3.标准HTK工具选项 一些标准选项对每个HTK工具都是通用的。将使用以下一些选项: 1. -A :显示命令行参数 2. -D :显示配置设置 3.-T 1:显示算法动作的相关信息 3.语料库的准备 录制{brightness,channel,color}这三个词的读音。每个读9次。同时对每个录音都要进行标注,也就是有一个文本文件与其对应描述它的内容。 3.1语料库的准备 每个词各录制9次,保存为wav格式。5次存放在 data/train/wav/brightness data/train/wav/channel train/train/wav/color 4次作为测试音频,存放在: data/test/wav/brightness data/test/wav/channel train/test/wav/color 3.2 语音标注 我使用的是praat软件进行语音标注。在这之前我用手机进行录音,文件格式是m4a,首先采用音频转换软件将m4a格式转换为wav格式,进而进行praat标注,将标注结果保存为lab 形式。需要注意的是,praat标注单位为s,而HTK是以100ns为单位的,因此需要自己修改

语音识别概述

语音识别项目概述 1.语音识别概述与分类 语音识别技术就是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的高技术。语音识别技术主要包括特征提取技术、模式匹配准则及模型训练技术三个方面。 根据识别的对象不同,语音识别任务大体可分为3类,即孤立词识别(isolated word recognition),关键词识别(或称关键词检出,keyword spotting)和连续语音识别。 孤立词识别的任务是识别事先已知的孤立的词,如“开机”、“关机”等; 连续语音识别的任务则是识别任意的连续语音,如一个句子或一段话; 连续语音流中的关键词检测针对的是连续语音,但它并不识别全部文字,而只是检测已知的若干关键词在何处出现。 根据针对的发音人,可以把语音识别技术分为特定人语音识别和非特定人语音识别,前者只能识别一个或几个人的语音,而后者则可以被任何人使用。显然,非特定人语音识别系统更符合实际需要,但它要比针对特定人的识别困难得多。 注:在特定人语音识别中,不同的采集通道会使人的发音的声学特性发生变形,因此需要构造各自的识别系统。 2.项目概述 近年来,随着汽车产业的发展和汽车的普及,人们对车辆性能要求的不断提高,舒适性和便利性成为了当代社会汽车产业产业所追求的一致目标。因而车载电子产品的种类和功能也日益增加,越来越便于车主的使用,然而随之而来的也造成了操作的繁琐性,甚至于存在一定安全隐患。车载设备以服务用户为目的,因此人们需要一种更方便、更自然、更加人性化的方式与控制系统交互,而不再满足于复杂的键盘和按钮操作。基于听觉的人机交互是该领域的一个重要发展方向。目前主流的语音识别技术是基于统计模式。然而,由于统计模型训练算法复杂,运算量大,一般由工控机、PC机或笔记本来完成,这无疑限制了它的运用。嵌入式语音交互已成为目前研究的热门课题。嵌入式语音识别系统和PC机的语音识别系统相比,虽然其运算速度和内存容量有一定限制,但它具有体积小、功耗低、可靠性高、投入小、安装灵活等优点,特别适用于智能家居、机器人及消费电子等领域。结合这一应用背景,本项目以语音识别模块LD3320为核心,结合Avr系列的MCU控制器,提出了一种方便现代生活的智能车载语音识别控制系统,以满足现代车辆车主在车内工作、休息、娱乐以及行车安全等方面的要求。本项目以语音识别技术为基础,利用语音命令作为人机接口,来实现对车上装备的音频和视频播放器、空调、电动车窗、移动电话、车载导航系统、卫星电台等电子产品进行智能控制的功能。

关键词识别在语音监听系统中的应用

Scientific Journal of Information Engineering February 2014, Volume 4, Issue 1, PP.13-18 Key Words Recognition Applied to Speech Monitoring System Min Wang#, Huiting Ni, Lizhi Li, Xiaoqun Zhao Electronic and Information Engineering College, Tongji University, Shanghai 201804, China #Email: viviansea87@https://www.sodocs.net/doc/3f3705761.html, Abstract Along with our government’s paying attention to national defense and security, monitoring on telephone is more and more important. Obviously, traditional way cannot meet the requirements now, so developing automated speech monitoring technology is very urgent. This paper introduced a speech monitoring system based on key words recognition (KWR), on the basis of previous research, the system achieved the following functions---online real-time monitoring and offline non real-time detection. Through the theoretical analysis, this system can save human resources and improve the working efficiency. Keywords: CSR; Speech Monitoring System; KWR 关键词识别在语音监听系统中的应用 王民,倪慧婷,李立志,赵晓群 同济大学电子与信息工程学院,上海201804 摘要:随着我国对国家安全事业的重视,电话内容的监听越来越重要。传统的人工方式的监听已不能适应新时期的要求,迫切要求引入自动化的语音监听技术。本文介绍了一个基于语音关键词识别的电话语音监听系统,在现阶段已经成 熟的语音关键词识别技术的基础上,实现对语音电话的在线实时监听和离线非实时的检测功能,可以大大节省人力资源, 提高整个监听系统的工作效率。 关键词:连续语音识别;语音监听系统;关键词识别 引言 自9.11事件以后,如何对国家重要安全部门和敏感的公共场合进行全天候、自动、实时的监控,已成为世界各国高度重视的一个全球性问题。在这样的背景下,视频监控技术得到了广泛的应用,即通过分散设置的摄像机记录监控场景,并集中显示,使得监控人员可以实时了解发生的事件,以及时做出反应。但是,有关研究已经表明,仅依靠视频监控中的人眼检测,即使是专业操作人员也难以构成真正有效的安全系统。因为只要连续专注于监控屏幕超过20分钟,监控人员的注意力都会降低至不能满足监控要求的水平。并且视频监控的前提是建立在要监控的嫌疑人到场的情况下的。在这种情况下,语音监听显示出了视频监听所不具有的优点:1)电话监听不需要嫌疑人到场;2)电话作为公共通讯设备现在几乎人人都会使用。因此,语音电话监听比视频监控更加有效,也就成为了近年来国家安全等领域的重要研究课题,但是纯人工监听需要24小时不间断的实时监听,大大耗费了人力和时间,而且由于人的注意力不可能长时间高度集中,有时也会把极其重要的内容忽略掉[1]。 相比于目前通常采用的人工监听方式,计算机自动处理有着速度快、效率高、漏检率低等特点,尤其是针对需要同时对多路电话进行实时监听的场合,电话内容自动检测和处理技术更是具有不可替代的作用。基于连续语音的关键词识别作为语音识别的重要分支,近年来发展迅速,并广泛应用于国防、生活等各个领域。用于监听的关键词识别系统不同于其他服务类的系统,在服务类系统中,被识别的对象往往是合作状态的,

相关主题