搜档网
当前位置:搜档网 › Sphinx用于汉语连续数字语音识别的研究

Sphinx用于汉语连续数字语音识别的研究

Sphinx用于汉语连续数字语音识别的研究
Sphinx用于汉语连续数字语音识别的研究

Sphinx用于汉语连续数字语音识别的研究

王韵,张雪英

太原理工大学信息工程学院,太原(030024)

E-mail:312118847@https://www.sodocs.net/doc/5d3379088.html,

摘要:本文介绍了一个基于Sphinx的汉语连续数字语音识别系统,其声学模型采用SphinxTrain训练生成,语言模型由cmuclmtk统计语言模型生成,识别引擎采用PocketSphinx 工具。实验证明该系统对于非特定人不定长数字串的句子识别率为89.583%,词识别率为97.20%,说明该系统有良好的性能。

关键词:Sphinx;语音识别;声学模型;语言模型

中图分类号:TN912.34

1.引言

作为汉语语音识别的一个重要分支,非特定人连续数字识别有着广阔的应用前景。它在语音电话拨号、数字家电遥控、移动通信、电话证券交易等众多实用化领域[1]都给人们带来极大的便利。连续数字识别是一个小词汇量的语音识别系统,识别对象仅包括0~9十个数字,但由于汉语的单音节及易混淆性使得识别率同实际应用还存在一定差距。

本文利用卡内基梅陇大学(CMU)开发的嵌入式识语音识别引擎PocketSphinx,声学模型训练工具SphinxTrain,语言模型生成工具cmuclmtk[2]构建了一个汉语数字识别系统。PocketSphinx是CMU开发的一款用于快速语音识别的嵌入式语音识别引擎,它对于小词汇量的英语连续语音有很高的识别率。这里我们借助此识别引擎,通过训练汉语数字的声学模型和语言模型来构建一个高性能的汉语连续数字语音识别系统。这些工具的源代码都是公开的,通过改进算法,在汉语连续数字识别方面取得了一定的成效。

2.系统结构

连续语音识别系统主要由特征提取,声学模型,语言模型,识别引擎四部分组成如图1。以下会根据本文构建的数字连续语音系统对这四部分分别介绍。

图1 连续语音识别系统的基本结构

2.1 特征提取

SphinxBase是卡内基梅隆大学著名的Sphinx语音识别工程的公用库,主要用MFCC实现了语音识别系统的前端特征提取,其流程如图2示:

图2 MFCC 流程图

输入信号为16bit 的音频数据流。采样率为16KHz ,语音分帧的帧长为25.6ms ,帧叠为10ms 。对于每帧语音信号求出12维美尔倒谱系数和功率谱系数并对其归一化。现用x(t)表示时刻t 的倒谱向量,x(t)表示功率谱系数。经过一阶二阶差分后得到51维向量作为语音识别输入的四个特征流[3]:

MFCC 系数x(t):归一化倒谱向量 (12维) 一阶差分系数12()()(2)(2),()(4)(4)x t x t x t x t x t x t x t ΔΔ=+??Δ=+??: (24维) 二阶差分系数()(1)(1)x t t t ΔΔΔ+?Δ?: (12维) 功率谱向量0000()(),(),()x t x t x t x t ΔΔΔ: (3维)

2.2 改进的声学模型训练

主流语音识别系统多采用HMM 进行建模,本系统采用半连续HMM 模型进行声学模型训练,声学模型的输入是由特征提取模块提取的特征。

由于数字识别系统词汇量非常小,这里我们选择把每个词的发音(即拼音)作为声学模型的训练单元。由于连续语音中存在协同发音的情况,所以本文采用的声学单元是上下文相关的三元音子[4](triphone )。所谓上下文相关三元音子,是指考虑一个音素与其左右相邻音素的相关情况后选取的音素。对于数字串“yi1 er4 san1 wu3”,使用triphone 表示为如下序列:

sil sil-yi1+er4 yi1-er4+san1 er4-san1+wu3 san1-wu3+sil sil

句首的sil 表示句子开始的静音段,句尾的sil 表示句子结束时的静音段。

每个音素模型都采用具有相同的5状态贝叶斯拓扑结构的HMM 。每个特征码书的半连续声学模型都含有256个密度分量。聚类后的状态称为senone ,每个senone 都有其独立完整的高斯混合模型,这也是解码过程的最基本的单元。

本文采用CMU 开发的sphinxtrain 工具进行声学模型的训练。训练步骤如下:

(1) 确定建模单元(11个:ling2 yao1 yi1 er4 san1 si4 wu3 liu4 qi1 ba1 jiu3 )和模型的拓扑结构(5状态贝叶斯拓扑结构);建立字典文件,音素文件,音频文件及存储路径,确保各个文件一一对应。

(2) 从语音文件中统计全局的均值和方差,并用这些全局的均值和方差初始化所有上下文无关(Context-independent ,CI )模型的均值和方差,并使用Baum-Welch 算法训练CI 模型。

(3) 结合训练的发音词典,构建词间三元音子的句子HMM 串。基于Baum-Welch 算法,训练未聚类的上下文相关(Context-dependent ,CD )模型。

(4) 构建CI 模型的各个状态所对应的决策树;对得到的决策树根据事先设定的Senone

数目进行裁剪,并利用裁剪后的决策树进行声学模型的状态聚类。

(5) 训练聚类后的CD模型,得到输出概率分布是单高斯的CD模型。

(6) 从单高斯的CD模型开始,不断地分裂高斯密度函数分布,增加高斯混合的数目,并且利用Baum-Welch算法训练分裂后的CD模型直至其收敛。不断地重复该高斯分裂步骤直到高斯混合数目满足要求为止[5]。

(7) 删除插值是声学模型训练的最后步骤,目的是减少过度拟合的影响。它是一个在CI 和CD之间反复插值的过程。数据被分为两个集合,其中一个集合的数据用来估计另一集合已训练得到的CI和CD之间的最优插值因子。随后两个集合交换,并把得到的插值因子作为当前操作的初始值,交换直至插值因子收敛为止。

最终我们得到解码端需要的声学模型文件:特征参数文件feat.params,模型定义文件mdef,均值文件means,方差文件variances,转移矩阵transition_matrices,状态分布sendump,噪声词典noisedict,混合权重mixture_weight。

2.3 语言模型训练

本文采用cmuclmtk工具训练语言模型,通过统计大量文本数据得到以单个数字建立的N-Gram模型。在训练中主要采用2-Gram和3-Gram模型,即某个词出现的概率仅依赖于前一个或者前两个词。语言模型生成的基本流程[6]如图3,其输入是文本数据text,输出包括两个语言模型文件:语言模型arpa和语言模型转储文件arpa.DMP。

图3 语言模型训练流程图

2.4 识别引擎

PocketSphinx可以对wave格式存储的语音文件进行识别。待识别的语音可以麦克风输入,也可读取wave格式语音文件得到,最后输出的识别结果以文字形式显示。识别引擎算法集中分为四个部分:声学特征计算,高斯函数计算,高斯混合模型计算和Viterbi搜索。解码端的搜索算法主要采用ViterbiBeam[7]搜索算法。在搜索过程中不断地寻找可能的最优状态子序列,记录相应的信息,根据不同层次的裁剪门限进行裁剪,直到处理完所有的特征矢量,最后进行回溯得到最优的词序列。

3.实验结果及分析

本文采用linux作为编程环境,实验中使用的版本分别有:SphinxBase-0.3.和PocketSphinx-0.4.1。使用的语音库是中国科学院自动化研究所开发的CASIA汉语数字串语音库。语音库是连续语音数字串,包括55个男生数据,每人80个句子数字串,共4400个句子,串长1-7不等。

语音数据采用16KHz采样,16bit量化,帧长25.6ms,帧移10ms。采用汉明窗,预加重系数0.97,计算得到51维MFCC特征向量。

声学模型训练选取0-9十个数字的发音(1包括yao1和yi1两种发音)共十一个单元进行声学模型的训练。实验中选取其中46个男生的语音数据(3680句)作为声学模型的训练集,剩余9个男生的语音数据(720)作为测试集。使用训练集语音数据所对应的文本文件生成语言模型。

在本实验中,选取训练集中的9个男生数据作为测试集-1,测试集数据作为测试集-2。分别对两个测试集的2字长(99句)、3字长(90句)和不定长(720句)语音数据进行了测试,并计算了各自的句识别率和词识别率。

表1 测试集-1识别结果

2字长3字长不定字长

句识别率98.990% 92.222%90.694%

词识别率99.49% 97.41% 97.82%

表2 测试集-2识别结果

2字长3字长不定字长

句识别率98.990% 91.111%89.583%

词识别率99.49% 96.67% 97.20%

表中:句识别率=1-错误句子数 / 识别句子总数

词识别率=(识别词总数-插入-删除-替换)/ 识别词总数

从表1和表2可以看出,测试集1的识别率高于测试集2的识别率,这说明不同说话人对同一语音的发音有很大差异;随着字长的增加,由于连续汉语识别的高连续性和高混淆度使得识别率有不同程度的下降。

传统的连续数码串识别系统中,数码串的词识别率为91.729%[8],而本系统的词识别率高达97.20%以上,说明该系统识别性能有很大改善。从表中可以看出非特定人不定长连续数字的句子识别率平均达到90℅左右,说明该系统性能良好。

4.结论

本文给出了一个应用于嵌入式手持设备的快速汉语连续数字语音识别系统。从实验结果看,使用Sphinx系统搭建小词汇量的汉语连续数字语音识别系统具备良好的性能。今后准备结合汉语声韵特征,改进Sphinx系统使其应用于大词表汉语连续语音识别。

参考文献

[1] 顾良,刘润生.汉语数码语音识别:发展现状、难点分析与方法比较[J].电路与系统学报,1997,2(4) :32-38.

[2] David Huggins-Daines.SphinxTrainWalkthrough - CMU Sphinx Documentation Wiki[EB/OL].

https://www.sodocs.net/doc/5d3379088.html,/cmusphinx/moinmoin/SphinxTrainWalkthrough,2009-06-08.

[3] Mosur K. Ravishankar.Efficient Algorithms for Speech Recognition[D].Pittsburgh:Carnegie Mellon University,1996.

[4] 赵庆卫,王作英等.汉语连续语音识别中上下文相关的识别单元(三音子)的研究[J].电子学报,1999,27(6):79-82.

[5] 高勤.汉语语音文档检索技术研究及系统实现[D].,北京:北京大学, 2007.

[6] RoniRosenfeld. LanguageModelingToolkit[EB/OL].

https://www.sodocs.net/doc/5d3379088.html,/SLM/toolkit_documentation.html, 2009-06-21.

[7] 袁俊.HMM 连续语音识别中Viterbi 算法的优化及应用[J].电子技术,2001,2:48-51.

[8] 张培玲,王福忠, 刘群坡.连续数码串语音识别系统的MATLAB 实现[J].河南理工大学学报(自然科学版.2009,28(2):211-216.

The Chinese Continuous Digit Speech Recognition System

Based on Sphinx

Wang Yun, Zhang Xueying

College of Information Engineering, Taiyuan University of Technology,Taiyuan (030024)

Abstract

This paper introduces a speech recognition system of Chinese continuous digit based on Sphinx. The acoustic model of this system is produced by SphinxTrain, and the language model is produced by the cmuclmtk statistical language model. In addition, this system makes use of PocketSphinx recognition engine. According to the experiment, the recognition rate of this system to a sentence of random length made by Speaker-Independent is up to 89.583%, and the word recognition rate is 97.20%. Therefore, the performance of this system is fairly well.

Keywords: Sphinx; speech recognition; acoustic model; language model

作者简介:

王韵,女,1985年生,硕士研究生,主要研究汉语连续语音识别。

张雪英,女,博导,主要研究方向语音信号处理。

语音识别技术文献综述

语音识别技术综述 The summarization of speech recognition 张永双 苏州大学 摘要 本文回顾了语音识别技术的发展历史,综述了语音识别系统的结构、分类及基本方法,分析了语音识别技术面临的问题及发展方向。 关键词:语音识别;特征;匹配 Abstact This article review the courses of speech recognition technology progress ,summarize the structure,classifications and basic methods of speech recognition system and analyze the direction and the issues which speech recognition technology development may confront with. Key words: speech recognition;character;matching 引言 语音识别技术就是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的高技术。语音识别是一门交叉学科,所涉及的领域有信号处理、模式识别、概率论和信息论、发声机理和听觉机理、人工智能等等,甚至还涉及到人的体态语言(如人民在说话时的表情手势等行为动作可帮助对方理解)。其应用领域也非常广,例如相对于键盘输入方法的语音输入系统、可用于工业控制的语音控制系统及服务领域的智能对话查询系统,在信息高度化的今天,语音识别技术及其应用已成为信息社会不可或缺的重要组成部分。 1.语音识别技术的发展历史 语音识别技术的研究开始二十世纪50年代。1952年,AT&Tbell实验室的Davis等人成功研制出了世界上第一个能识别十个英文数字发音的实验系统:Audry系统。

matlab语音识别系统(源代码)最新版

matlab语音识别系统(源代码)最新版

目录 一、设计任务及要求 (1) 二、语音识别的简单介绍 2.1语者识别的概念 (2) 2.2特征参数的提取 (3) 2.3用矢量量化聚类法生成码本 (3) 2.4VQ的说话人识别 (4) 三、算法程序分析 3.1函数关系 (4) 3.2代码说明 (5) 3.2.1函数mfcc (5) 3.2.2函数disteu (5) 3.2.3函数vqlbg (6) 3.2.4函数test (6) 3.2.5函数testDB (7) 3.2.6 函数train (8) 3.2.7函数melfb (8) 四、演示分析 (9) 五、心得体会 (11) 附:GUI程序代码 (12)

一、设计任务及要求 用MATLAB实现简单的语音识别功能; 具体设计要求如下: 用MATLAB实现简单的数字1~9的语音识别功能。 二、语音识别的简单介绍 基于VQ的说话人识别系统,矢量量化起着双重作用。在训练阶段,把每一个说话者所提取的特征参数进行分类,产生不同码字所组成的码本。在识别(匹配)阶段,我们用VQ方法计算平均失真测度(本系统在计算距离d时,采用欧氏距离测度),从而判断说话人是谁。 语音识别系统结构框图如图1所示。 图1 语音识别系统结构框图 2.1语者识别的概念 语者识别就是根据说话人的语音信号来判别说话人的身份。语音是人的自然属性之一,由于说话人发音器官的生理差异以及后天形成的行为差异,每个人的语音都带有强烈的个人色彩,这就使得通过分析语音信号来识别说话人成为可能。用语音来鉴别说话人的身份有着许多独特的优点,如语音是人的固有的特征,不会丢失或遗忘;语音信号的采集方便,系统设备成本低;利用电话网络还可实现远程客户服务等。因此,近几年来,说话人识别越来越多的受到人们的重视。与其他生物识别技术如指纹识别、手形识别等相比较,说话人识别不仅使用方便,而且属于非接触性,容易被用户接受,并且在已有的各种生物特征识别技术中,是唯一可以用作远程验证的识别技术。因此,说话人识别的应用前景非常广泛:今天,说话人识别技术已经关系到多学科的研究领域,不同领域中的进步都对说话人识别的发展做出了贡献。说话人识别技术是集声学、语言学、计算机、信息处理和人工智能等诸多领域的一项综合技术,应用需求将十分广阔。在吃力语音信号的时候如何提取信号中关键的成分尤为重要。语音信号的特征参数的好坏直接导致了辨别的准确性。

语音识别字符分割算法_原创.

5.设计方法 5.1概述 5.2硬件系统的设计 语音信号预处理 (1)预加重 预加重的目的是提升高频部分,使信号的频谱变得平坦,保持在低频到高频的整个频带中,能用同样的信噪比求频谱,以便于频谱分析或声道参数分析。在计算机里用具有6dB/频程升高频特性的预加重数字滤波器来实现,一般是一阶的FIR数字滤波器: 为预加重系数,值接近于l,在0.9和1之间,典型值为0.94。 预加重的DSPBuilder实现: 为了便于实现,将上式中的一阶FIR预加重滤波器用差分方程表示为: 其中,为原始语音信号序列,N为语音长度,上面的公式显示其在时域 上的特性。又因为0.94接近于15/16,所以将上面的式子变为 除以16可以用右移4位来实现,这样就将除法运算化简为移位运算,降低了计算复杂度。在后面的模块设计中,也乘以或者除以一些这样的数,这些数为2的幂次,都可以用移位来实现。 预加重的硬件实现框图如下: 预加重实现框图 DSP Builder中的图形建模为:

预加重滤波器的DSPBuilder结构图 (2)分帧 语音信号是一种典型的非平稳信号,其特性随时间变化,其在很短的时间内是平稳的,大概为1小20ms,其频谱特性和物理特征可近似的看做不变,这样就可以采用平稳过程的分析处理方法来处理。 分帧的DSP Builder实现: 语音信号在10到20ms之间短时平稳(这样可以保证每帧内包含1一7个基音周期),也就是说选取的帧长必须介于10到20ms之间,此外,在MFCC特征提取时要进行FFT变换,FFT点数一般为2的幂次,所以本文中选择一帧长度为16ms,帧移为1/2帧长,这样一帧就包含了16KHz*16ms=256个点,既满足短时平稳,又满足FFT变换的要求。 由于采集的语音是静态的,语音长度已知,很容易计算出语音的帧数,但是在硬件上或实时系统中,语音长度是无法估计的,而且还要考虑存储空间的大小和处理速度,采用软件实现时的静态分帧方法是行不通的,可以利用硬件本身的特点进行实时的动态分帧。 为了使帧与帧之间平滑过渡,保持连续语音流的自相关性和过渡性,采用交叠分帧的算法。帧移取1/2帧长,即128个数据点当作一个数据块。FIFO1大小为一帧语音长度,分成两个数据块,预加重后的数据写入这个FIFO。为了实现帧移交叠,在FIFO1读数据时,同时再用FIFO2保存起来,当FIFO的一块数据读完以后,紧接着从FIF22读出这一块的副本。写入的一块数据,相当于被重复读出2次,所以FIFO1的读时钟频率设计为写时钟频率的2倍,而FIFOZ的读写时钟频率和FIFO1的读时钟频率相同。分帧以后的数据在图中按时间标号为1、2、2、3.··…,1、2为第一帧,2、3为第二帧,以此类推。

Sphinx用于汉语连续数字语音识别的研究

Sphinx用于汉语连续数字语音识别的研究 王韵,张雪英 太原理工大学信息工程学院,太原(030024) E-mail:312118847@https://www.sodocs.net/doc/5d3379088.html, 摘要:本文介绍了一个基于Sphinx的汉语连续数字语音识别系统,其声学模型采用SphinxTrain训练生成,语言模型由cmuclmtk统计语言模型生成,识别引擎采用PocketSphinx 工具。实验证明该系统对于非特定人不定长数字串的句子识别率为89.583%,词识别率为97.20%,说明该系统有良好的性能。 关键词:Sphinx;语音识别;声学模型;语言模型 中图分类号:TN912.34 1.引言 作为汉语语音识别的一个重要分支,非特定人连续数字识别有着广阔的应用前景。它在语音电话拨号、数字家电遥控、移动通信、电话证券交易等众多实用化领域[1]都给人们带来极大的便利。连续数字识别是一个小词汇量的语音识别系统,识别对象仅包括0~9十个数字,但由于汉语的单音节及易混淆性使得识别率同实际应用还存在一定差距。 本文利用卡内基梅陇大学(CMU)开发的嵌入式识语音识别引擎PocketSphinx,声学模型训练工具SphinxTrain,语言模型生成工具cmuclmtk[2]构建了一个汉语数字识别系统。PocketSphinx是CMU开发的一款用于快速语音识别的嵌入式语音识别引擎,它对于小词汇量的英语连续语音有很高的识别率。这里我们借助此识别引擎,通过训练汉语数字的声学模型和语言模型来构建一个高性能的汉语连续数字语音识别系统。这些工具的源代码都是公开的,通过改进算法,在汉语连续数字识别方面取得了一定的成效。 2.系统结构 连续语音识别系统主要由特征提取,声学模型,语言模型,识别引擎四部分组成如图1。以下会根据本文构建的数字连续语音系统对这四部分分别介绍。 图1 连续语音识别系统的基本结构 2.1 特征提取 SphinxBase是卡内基梅隆大学著名的Sphinx语音识别工程的公用库,主要用MFCC实现了语音识别系统的前端特征提取,其流程如图2示:

语音识别发展现状与展望

中国中文信息学会第七次全国会员代表大会 暨学会成立30周年学术会议 语音识别发展现状与展望中科院自动化研究所徐波 2011年12月4日

报告提纲 ?语音识别技术现状及态势?语音识别技术的行业应用?语音识别技术研究方向?结论与展望

2010年始语音识别重新成为产业热点?移动互联网的兴起成为ASR最重要的应用环境。在Google引领下,互联网、通信公司纷纷把语音识别作为重要研究方向 –Android系统内嵌语音识别技术,Google语音 翻译等; –iPhone4S 上的Siri软件; –百度、腾讯、盛大、华为等都进军语音识别领 域; –我国语音技术领军企业讯飞2010年推出语音云识别、讯飞口讯 –已有的QQ2011版语音输入等等

成熟度分析-技术成熟度曲线 ?美国市场调查咨询公司Gartner于2011年7月发布《2011新兴技术成熟度曲线》报告:

成熟度分析-新兴技术优先矩阵?Gartner评出了2011年具有变革作用的技术,包括语音识别、语音翻译、自然语言问答等。其中语音翻译和自然语言问答有望在5-10年内获得大幅利用,而语音识别有望在2-5年内获得大幅利用;

三十年语音识别技术发展 ---特征提取与知识方面?MFCC,PLP,CMS,RASTA,VTLN;?HLDA, fMPE,neural net-based features ?前端优化 –融入更多特征信息(MLP、TrapNN、Bottle Neck Features等) ?特征很大特点有些是跟模型的训练算法相匹配?大规模FSN图表示,把各种知识源集中在一起–bigram vs. 4-gram, within word dependencies vs. cross-word

语音识别系统调研报告

语音识别系统调研报告 姓名:罗小嘉学号:2801305018 1、摘要:本文简要的介绍了语音识别系统的原理,发展和在各个方面的应用前景。 2、关键词:语音识别;应用 3、引言:语音识别主要是指用机器在各种情况下,根据信息执行人的各种意图,有效地了解、识别语音和其它声音。它是近十几年来发展起来的具有理论价值和实用价值的新兴学科:从计算机大学科角度看,可视为智能计算机的智能接口;从信息处理学科来看,可视为信息识别的一个重要分支;从自动控制学科来看,又可视为模式识别的一个重要组成部分. 早在18 世纪,人们就对语音学进行了科学研究,但由于各种条件的限制,语音识别仅在计算机技术迅速发展之后,才成为一个非常活跃的研究领域. 60 年代末期,面对语音识别的种种困难,人们开始研究特定人、孤立词、小词汇量的识别,从而使语音识别的问题能够在当时的条件下得以开展;70年代后期,特定人、孤立词、小词汇量的语音识别取得较为满意的效果,语音识别的研究则沿着特定人向非特定人、孤立词向连续词、小词汇量向大词汇量方向扩展研究领域和目标;80 年代中期以来,计算机技术、信息技术及模式识别等技术的迅猛发展,极大地促进了语音识别技术的发展. 4、正文:语音识别系统要求能够实现实时语音识别。该语音识别系统的关键技术主要是语言实时识别技术、语音端点检测与声韵分割。如图: 对于语音端点检测与声韵分割的问题,从背景噪声中找出语音的开始和终止,这在语音处理中是很基本的问题,因为准确的端点检测,不仅可以提高识别精度,还可以避免计算噪声,减少计算量. 大多数语音处理系统采用过零率和能量两参数作端点检测. 但过零率受噪声影响较大,采用多门限过零率作语音起点检测,将能量信息直接反应在门限中,同时将分析窗长取小,使起点检测比较准确,效果较好. 语音识别技术的应用可以分为两个发展方向:一个方向是大词汇

语音识别方法及发展趋势分析

语音识别改进方法及难点分析 ——《模式识别》结课小论文 学院:化工与环境学院 学号:2120151177 姓名:杜妮

摘要:随着计算机技术的不断发展,人工智能程度也越来越高,作为人工智能的一部分——模式识别也在模型和算法上愈发成熟。本文根据近105年文献,分析最新声音识别的方法和应用。 关键字:模式识别声音识别方法应用 随着人工智能的迅速发展,语音识别的技术越来越成为国内外研究机构的焦点。人们致力于能使机器能够听懂人类的话语指令,并希望通过语音实现对机器的控制。语音识别的研究发展将在不远的将来极大地方便人们的生活。 语音识别大致的流程包括:特征提取、声学模型训练、语音模型训练以及识别搜索算法。作为一项人机交互的关键技术,语音识别在过去的几十年里取得了飞速的发展,人们在研究和探索过程中针对语音识别的各部流程进行了各种各样的尝试和改造,以期发现更好的方法来完成语音识别流程中的各步骤,以此来促进在不同环境下语音识别的效率和准确率。本文通过查阅近10年国内外文献,分析目前语音识别流程中的技术进展和趋势,并在文章最后给出几项语音识别在日常生活中的应用案例,从而分析语音识别之后的市场走势和实际利用价值。 一、语音识别的改进方法 (一)特征提取模块改进 特征提取就是从语音信号中提取出语音的特征序列。提取的语音特征应该能完全、准确地表达语音信号,特征提取的目的是提取语音信号中能代表语音特征的信息,减少语音识别时所要处理的数据量。语音信号的特征分析是语音信号处理的前提和基础,只有分析出可以代表语音信号本质特征的参数,才能对这些参数进行高效的语音通信,语音合成,和语音识别等处理,并且语音合成的好坏,语音识别率的高低,也都取决于语音特征提取的准确性和鲁棒性。目前,针对特定应用的中小词汇量、特定人的语音识别技术发展已较为成熟,已经能够满足通常应用的要求,并逐步投入了实用。而非特定人、大词汇量、连续语音识别仍是

汉语连续语音识别中声学模型

第六届全国人机语音通讯学术会议,267-271页,2001年11月20-22日,深圳 汉语连续语音识别中声学模型基元比较汉语连续语音识别中声学模型基元比较:: 音节音节、、音素音素、、声韵母 李净,徐明星,张继勇,郑方,吴文虎,方棣棠 语音技术中心,智能技术与系统国家重点实验室, 清华大学计算机科学与技术系, 北京, 100084 [lijing, xumx, zjy, fzheng, wuwh]@https://www.sodocs.net/doc/5d3379088.html,, fangdt@https://www.sodocs.net/doc/5d3379088.html, https://www.sodocs.net/doc/5d3379088.html, 摘要 本文研究的是汉语连续语音识别中声学模型基元的选 择问题。根据汉语语音的特点,本文分别采用音节、 音素和声韵母等三种语音识别基元进行声学建模。为 了描述连续语音中的协同发音现象,本文针对音素和 声韵基元,设计了相应的问题集,利用基于决策树的 状态共享策略建立了上下文相关音素模型 (Triphone )和上下文相关声韵模型(TriIF ),并对 几种声学基元进行了对比。实验结果表明,对于上下 文无关模型,音素和声韵模型都要劣于音节模型,而 对于上下文相关模型,Triphone 和TriIF 模型与音节 模型相比,识别性能有了很大提高,其音节误识率分 别降低了8.5%和23.6%。 1. 引言 声学建模是连续语音识别中声学层面处理的关键步骤。声学模型用来描述识别基元对应的特征矢量序列的产生过程。通过声学建模,可以估计待识别特征矢量序列所对应的语音识别基元,从而完成特征矢量序列到语音识别基元的识别转换。 基元的选择是声学建模中一个基本而重要的问题。在汉语连续语音识别中,可以选择的基元包括:词(Word )、音节(Syllable )、半音节(Semi-Syllable )、声韵母(Initial/Final )、音素(Phone )等。识别基元的选择一般是基于语音学知识的,但是,基元也可以通过数据驱动的方式来产生,使用这种方式确定的基元可能在语音学上没有什么明确的意义,但也可以达到很好的性能。 对于词,在小词表语音识别系统中,或者命令与控制(Command & Control )系统中,使用词作为识别基元是适当的。但是,在连续语音识别中将词作为识别基元是不合适的。首先,在连续语音识别系统中,词条的数目比较多,一般都要使用几千或者几万 条词条,所以声学模型的规模必然很大。这不但会增 加存储的开销,还会极大地增加搜索的复杂度。其 次,当词表以外的词条,即OOV (Out Of Vocabulary )问题出现时,声学模型处理起来比较困 难。第三,要对这么多基元进行训练,必然需要一个 很大的数据库,并且要尽量覆盖词表中的词条,这一 点是很难达到的。所以,在汉语连续语音识别系统 中,采用类似于词这样较长的语音段作为识别基元是 不合适的。 对于音节,在汉语中,无调音节约有400个,如果考虑音调,有1300多个有调音节[1]。在进行上下文无关的声学建模时,使用有调或者无调音节是可以的,而且还可以取得相当好的性能,因为音节作为识别基元时,它很好地刻划了音节内部的变化。但是,在连续语音识别中,音节间的协同发音现象是比较严重的,因此,必须采用适当的方式来描述这种现象。一般地,上下文相关信息应在声学建模中加以考虑,这样,识别基元就会变成上下文相关的基元。如果采用音节作为识别基元,当考虑上下文信息时,基元数目会变得非常庞大,这将会使声学模型的规模变得无法接受。同时,由于基元数目过大,也会引起训练数据稀疏的问题,从而难以对模型参数给出较为准确的估计。所以,在进行上下文相关建模时,不适宜采用 音节模型。 音素在汉语中有三十多个(本文中定义的音素数目为35个)。音素基元在英语连续语音识别系统中得到了广泛的应用,并取得了很好的识别性能[2][3]。由此可见,音素也是一个很好的选择。但音 素并没有反映出汉语语音的特点,而且,相对于声韵母,音素显得更加不稳定,这一方面给手工标注带来了困难,同时,也给声学描述带来困难。 对于半音节和声韵母,它们在形式和数量上十分接近。半音节就是将音节分为两部分,而声韵母的划分更依赖于汉语语音学的知识。可以说,声韵母基元是适合汉语特点的一种识别基元,使用这种基元,还可以有很多语言学知识可以利用,从而进一步提高声 学模型的性能。声韵母作为识别基元具有以下优点: ? 汉语中的汉字是单音节的,而汉语中的音节是声韵结构的,这种独特而规则的结构,使对音节、以及词条的表示变得比较规则和统一; ? 使用声韵母作为识别基元,上下文相关信息也变得比较确定。比如,与声母相接的只能是韵母或者静音,而与韵母相接的也只能是声母或静音,而且,韵母左边相接的声母只能是与其搭配起来能够成汉语音节的那些声母。所以,上下文相关的声韵母基元的数目并不是基元数目的立方,而是远远小于这个数值的。

语音识别文献综述

噪音环境下的语音识别 1.引言 随着社会的不断进步和科技的飞速发展,计算机对人们的帮助越来越大,成为了人们不可缺少的好助手,但是一直以来人们都是通过键盘、鼠标等和它进行通信,这限制了人与计算机之间的交流,更限制了消费人群。为了能让多数人甚至是残疾人都能使用计算机,让计算机能听懂人的语言,理解人们的意图,人们开始了对语音识别的研究. 语音识别是语音学与数字信号处理技术相结合的一门交叉学科,它和认知学、心理学、语言学、计算机科学、模式识别和人工智能等学科都有密切关系。 2.语音识别的发展历史和研究现状 2.1国外语音识别的发展状况 国外的语音识别是从1952年贝尔实验室的Davis等人研制的特定说话人孤立数字识别系统开始的。 20世纪60年代,日本的很多研究者开发了相关的特殊硬件来进行语音识别RCA实验室的Martin等人为解决语音信号时间尺度不统一的问题,开发了一系列的时问归正方法,明显地改善了识别性能。与此同时,苏联的Vmtsyuk提出了采用动态规划方法解决两个语音的时闻对准问题,这是动态时间弯折算法DTW(dymmic time warping)的基础,也是其连续词识别算法的初级版.20世纪70年代,人工智能技术走入语音识别的研究中来.人们对语音识别的研究也取得了突破性进展.线性预测编码技术也被扩展应用到语音识别中,DTw也基本成熟。 20世纪80年代,语音识别研究的一个重要进展,就是识别算法从模式匹配技术转向基于统计模型的技术,更多地追求从整体统计的角度来建立最佳的语音识别系统。隐马尔可夫模型(hidden Markov model,删)技术就是其中一个典型技术。删的研究使大词汇量连续语音识别系统的开发成为可能。 20世纪90年代,人工神经网络(artificial neural network,ANN)也被应用到语音识别的研究中,并使相应的研究工作在模型的细化、参数的提取和优化以及系统的自适应技术等方面取得了一些关键性的进展,此时,语音识别技术进一步成熟,并走向实用。许多发达国家,如美国、日本、韩国,已经IBM、Microsoft、Apple、AT&T、Nrr等著名公司都为语音识别系统的实用化开发研究投以巨资。 当今,基于HMM和ANN相结合的方法得到了广泛的重视。而一些模式识

语音识别技术在物流中的应用

语音识别技术在物流中的应用 语音识别是以语音为研究对象,通过语音信号处理和模式识别让机器自动识别和理解人类口述的语言。语音识别技术就是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的高技术。语音识别是一门涉及面很广的交叉学科,它与声学、语音学、语言学、信息理论、模式识别理论以及神经生物学等学科都有非常密切的关系。语音识别技术正逐步成为计算机信息处理技术中的关键技术,语音技术的应用已经成为一个具有竞争性的新兴高技术产业。 1、语音识别的基本原理 语音识别系统本质上是一种模式识别系统,包括特征提取、模式匹配、参考模式库等三个基本单元,它的基本结构如下图所示: 未知语音经过话筒变换成电信号后加在识别系统的输入端,首先经过预处理,再根据人的语音特点建立语音模型,对输入的语音信号进行分析,并抽取所需的特征,在此基础上建立语音识别所需的模板。而计算机在识别过程中要根据语音识别的模型,将计算机中存放的语音模板与输入的语音信号的特征进行比较,根据一定的搜索和匹配策略,找出一系列最优的与输入语音匹配的模板。然后根据此模板的定义,通过查表就可以给出计算机的识别结果。显然,这种最优的结果与特征的选择、语音模型的好坏、模板是否准确都有直接的关系。 2、语音识别技术的发展历史及现状 1952年,AT&TBell实验室的Davis等人研制了第一个可十个英文数字的特定人语音增强系统一Audry系统1956年,美国普林斯顿大学RCA实验室的Olson和Belar等人研制出能10个单音节词的系统,该系统采用带通滤波器组获得的频谱参数作为语音增强特征。1959年,Fry和Denes等人尝试构建音素器来4个元音和9个辅音,并采用频谱分析和模式匹配进行决策。这就大大提高了语音识别的效率和准确度。从此计算机语音识别的受到了各国科研人员的重视并开始进入语音识别的研究。60年代,苏联的Matin等提出了语音结束点的端点检测,使语音识别水平明显上升;Vintsyuk提出了动态编程,这一提法在以后的识别中不可或缺。60年代末、70年代初的重要成果是提出了信号线性预测编码(LPC)技术和动态时间规整(DTW)技术,有效地解决了语音信号的特征提取和不等长语音匹配问题;同时提出了矢量量化(VQ)和隐马尔可夫模型(HMM)理论。语音识别技术与语音合成技术结合使人们能够摆脱键盘的束缚,取而代之的是以语音输入这样便于使用的、自然的、人性化的输入方式,它正逐步成为信息技术中人机接口的关键技术。 3、语音识别的方法

语音识别技术概述(一)

语音识别技术概述(一) 作者:刘钰马艳丽董蓓蓓 摘要:本文简要介绍了语音识别技术理论基础及分类方式,所采用的关键技术以及所面临的困难与挑战,最后讨论了语音识别技术的发展前景和应用。 关键词:语音识别;特征提取;模式匹配;模型训练 Abstract:Thistextbrieflyintroducesthetheoreticalbasisofthespeech-identificationtechnology,itsmo deofclassification,theadoptedkeytechniqueandthedifficultiesandchallengesithavetoface.Then,the developingprospectionandapplicationofthespeech-identificationtechnologyarediscussedinthelast part. Keywords:Speechidentification;CharacterPick-up;Modematching;Modeltraining 一、语音识别技术的理论基础 语音识别技术:是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的高级技术。语音识别以语音为研究对象,它是语音信号处理的一个重要研究方向,是模式识别的一个分支,涉及到生理学、心理学、语言学、计算机科学以及信号处理等诸多领域,甚至还涉及到人的体态语言(如人在说话时的表情、手势等行为动作可帮助对方理解),其最终目标是实现人与机器进行自然语言通信。 不同的语音识别系统,虽然具体实现细节有所不同,但所采用的基本技术相似,一个典型语音识别系统主要包括特征提取技术、模式匹配准则及模型训练技术三个方面。此外,还涉及到语音识别单元的选取。 (一)语音识别单元的选取 选择识别单元是语音识别研究的第一步。语音识别单元有单词(句)、音节和音素三种,具体选择哪一种,由具体的研究任务决定。 单词(句)单元广泛应用于中小词汇语音识别系统,但不适合大词汇系统,原因在于模型库太庞大,训练模型任务繁重,模型匹配算法复杂,难以满足实时性要求。 音节单元多见于汉语语音识别,主要因为汉语是单音节结构的语言,而英语是多音节,并且汉语虽然有大约1300个音节,但若不考虑声调,约有408个无调音节,数量相对较少。因此,对于中、大词汇量汉语语音识别系统来说,以音节为识别单元基本是可行的。 音素单元以前多见于英语语音识别的研究中,但目前中、大词汇量汉语语音识别系统也在越来越多地采用。原因在于汉语音节仅由声母(包括零声母有22个)和韵母(共有28个)构成,且声韵母声学特性相差很大。实际应用中常把声母依后续韵母的不同而构成细化声母,这样虽然增加了模型数目,但提高了易混淆音节的区分能力。由于协同发音的影响,音素单元不稳定,所以如何获得稳定的音素单元,还有待研究。 (二)特征参数提取技术 语音信号中含有丰富的信息,但如何从中提取出对语音识别有用的信息呢?特征提取就是完成这项工作,它对语音信号进行分析处理,去除对语音识别无关紧要的冗余信息,获得影响语音识别的重要信息。对于非特定人语音识别来讲,希望特征参数尽可能多的反映语义信息,尽量减少说话人的个人信息(对特定人语音识别来讲,则相反)。从信息论角度讲,这是信息压缩的过程。 线性预测(LP)分析技术是目前应用广泛的特征参数提取技术,许多成功的应用系统都采用基于LP技术提取的倒谱参数。但线性预测模型是纯数学模型,没有考虑人类听觉系统对语音的处理特点。 Mel参数和基于感知线性预测(PLP)分析提取的感知线性预测倒谱,在一定程度上模拟了人耳对语音的处理特点,应用了人耳听觉感知方面的一些研究成果。实验证明,采用这种技术,语音识别系统的性能有一定提高。

语音识别技术

目前主流的语音识别技术是基于统计模式识别的基本理论。一个完整的语音识别系统可大致分为三部分: (1)语音特征提取: (2)声学模型与模式匹配(识别算法) (3)语义理解:计算机对识别结果进行语法、语义分析。 语音识别技术,也被称为自动语音识别Automatic Speech Recognition,(ASR), 语音识别的发展简史 1952年AT& T Bell实验室实现了一个单一发音人孤立发音的十个英文数字的语音识别系统,到现在的人机语音交互。语音识别研究从二十世纪50年代开始到现在历半个多世纪的蓬勃发展,在这期间获得了巨大的进展。 现代语音识别技术研究重点包括即兴口语的识别和理解,自然口语对话,以及多语种的语音同声翻译。 语音识别应用的特点 1.语音识别系统必须覆盖的功能包括: (1)语音识别系统要对用户有益(希望它是能检测到的)。例如提高生产率,容易使用,更好的人机界面,或更自然的信息交流模式。 (2)语音识别系统要对用户“友好”。这种“友好”的含义是:用户在和系统进行语音对话时感到舒适;系统的语音提示既有帮助,又很亲近。 (3)语音识别系统必须有足够的精度 (4)语音识别系统要有实时处理能力;例如系统对用户询问的响应时间要很短。 2. 语音识别错误的处理 有以下四种方式可以处理这个问题。 (1)错误弱化法。这种处理仅仅花费用户很少一点时间,对用户几乎没什么其它不利影响。 (2)错误自检纠正法 系统利用已知任务的限制自动地检测并纠正错误。 (3)确认或多层次判定

(4)拒绝/转向人工座席。系统对其中通常较易导致系统识别错误的极少部分语音指令拒绝做出识别决定,而是将其转给人工座席。 在很多情况下,语音识别技术可以充分发挥出RFID的潜能: 1.积压产品、脱销产品 2.被废弃、被召回或已过期产品 3.回收的商品 4.促销产品 RFID系统在利用原有语音导向投资的情况下可以大大增加收益 语音识别技术在邮件分拣中的应用 现代化分拣设备在邮政上的应用大大提高了邮件处理的效率。但是,并不是所有的邮件都能上分拣机处理,那些需要人工处理的邮件成了邮政企业实现自动化的瓶颈。邮政使用人工标码技术以及先进的计算机软件 系统来处理不能上机的邮件,仍需要大量的劳动力。 由MailCode公司开发并准备申请专利的Spell-ItTM软件技术通过提高系统数据库能力的方式对语音识别自动化设备进行了革命性的变革。这种技术提供了无限的数据库能力,并且保证分拣速度不会因数据库的增大而减小。由各大语音引擎公司开发的系统还支持世界上的各种主要语言,这样,语音技术就成为世界性的产品。 以英语语音识别系统为例,系统建立了36个可识别字符26个字母加上0~9的10个数字,同时还建立了一套关键词。Spell-It软件使用这些字符来识别成千上万的口语词汇和无数的词语组合。 对于大公司的邮件收发中心来说,使用MailCode公司的Spell-It软件技术,分拣员实际上只需发出几个字符的音来找到和数据库中相对应的词。例如:碰到了寄给Joseph Schneider的邮件,操作员只需发出“J”、“S”、“C”和“H”几个音就可以得到准确的分拣信息。 姓名和邮箱编码:Jennifer Schroeder, 软件工程部;Joseph Schneider, 技术操作部;Josh Schriver, 技术操作部,因为这三个姓名全都符合(J,S,C,H)的发音标准。邮件中心的操作员知道邮件实际上是寄给Joseph Schneider的,就可以把邮件投入Joseph Schneide的信箱了。 邮局要把邮件按投递路线分发,分拣员必须熟悉长长的投递段列表以及各种各样的国际邮件投递信息。Spell-It技术把地址、投递路线等信息都存入了系统,这样就大大方便了分拣工作。 例如,有一件寄往Stonehollow 路2036号的邮件。使用语音识别技术,分拣员仅仅需要发出“2”、“0”、“S”、“T”和“O”几个音,如表2所示,数据库就会给出所有可能和这几 表2 和20 sto对应的数据库信息

《语音识别入门教程》

语音识别入门(V1.0) 丁鹏、梁家恩、苏牧、孟猛、李鹏、王士进、王晓瑞、张世磊 中科院自动化所高创中心,北京,100080 【摘要】本文主要以剑桥工程学院(CUED)的语音识别系统为例,并结合我们实验室自身的研究与开发经验,讲述当前主流的大词汇量连续语音识别系统(LVCSR)的框架和相关技术,对实验室的同学进行一个普及和入门引导。 【关键词】语音识别,HTK,LVCSR,SRI 1. 引言 语音识别技术发展到今天,取得了巨大的进步,但也存在很多的问题。本文主要以CUED 的语言识别系统为例,说明LVCSR系统技术的最新进展和研究方向,对实验室的同学进行一个普及和入门引导。 1.1 国际语音识别技术研究机构 (1)Cambridge University Engineering Department (CUED) (2)IBM (3)BBN (4)LIMSI (5)SRI (6)RWTH Aachen (7)AT&T (8)ATR (9)Carnegie Mellon University (CMU) (10)Johns Hopkins University (CLSP) 1.2 国际语音识别技术期刊 (1)Speech Communication (2)Computer Speech and Language (CSL) (3)IEEE Transactions on Speech and Audio Processing 1.3 国际语音识别技术会议 (1)ICASSP(International Conference on Acoustic, Speech and Signal Processing)每年一届,10月截稿,次年5月开会。 (2)ICSLP(International Conference on Spoken Language Processing) 偶数年举办,4月截稿,9月开会。

语音识别的非线性方法

52国家自然科学基金资助项目.收文日期:1997年6月12日(June 12,1997) ΞV ol.3N o.1M arch 1998 电路与系统学报JOURNAL OF CIRCUIT S AND S Y S TEMS 第3卷第1期 1998年3月Ξ 语音识别的非线性方法董远胡光锐 (上海交通大学电子工程系,上海,200030) 【摘要】语音信号是一个复杂的非线性过程,这使得基于线性系统理论发展起来的传统语音识别技术性能难以进一步提高。近年来人们开始逐渐重视非线性理论在语音识别技术中的应用。本文概括地介绍了非线性理论在语音识别技术中的所取得的成果和发展方向,除了涉及较为流行的隐马尔柯夫过程和人工神经网络在语音识别中的应用外,文中着重论述了近年来发展迅猛的混沌、分形理论在语音识别中的应用,本文最后还提到了不可忽视的分形理论在语音编码中的应用。 【关键词】语音识别,隐马尔柯夫过程,人工神经网络,混沌,分形,迭代函数系统,语音编码 Non 2linear Methods for S p eech Reco g nition D on g Y uan Hu G uan g rui (De p t.of E lectronic En g ineerin g ,Shan g hai Jiaoton g Universit y ,Shan g hai ,200030) Abstract :S p eech si g nal is traditionall y treated as a linear p rocess.H ow ever ,it is indicated b y extensive research that the s p eech si g nals are actuall y com p licated non 2linear p rocesses.T o im p rove the reco g nition rate ,recent research ef 2fort has started to m i g rate to anal y ze s p eech si g nal usin g non 2linear theor y .T his article summ arizes the new develo p m ent in this area.Besides HM M and ANN ,which have been w idel y used b y m an y authors ,this p a p er introduces in p articular a series of fast g row in g non 2linear such as chaotic and fractal theories and their a pp lications in s p eech reco g nition and codin g . K e y w ords :s p eech reco g nition ,HM M ,ANN ,chaos ,fractal ,IFS ,s p eech codin g 引言 语音识别技术自本世纪五十年代起步发展至今已四十多年,取得了很大的进步,语音识别的研究愈来愈受到人们的重视。 语音信号处理分别基于确定性线性系统理论和不确定性非线性系统理论。80年代的子词单元、多级识别、多模板和聚类技术、连续语音匹配技术等语音识别方法都是基于线性系统理论。经研究表明,语音信号是一个复杂的非线性过程,这使得基于线性系统理论发展起来的传统语音识别技术性能难以进一步提高。近年来发展起来并逐渐完善的非线性科学为语音识别技术的发展带来了新的生机。 1语音识别与隐马尔柯夫过程(HM M ) 在传统的线性理论难以使得语音识别技术进一步提高时,随着对隐马尔柯夫模型(HM M )的重新认识和广泛应用,掀起了语音识别研究的一个热潮[1]。 语音信号是短时平衡的随机信号,在足够小时音段上语音信号的特性近似稳定,就整个语音序列而言,它可以看成是依次从相对稳定的某一状态过渡到另一状态。尽管如此,语音信号序列用一个按预定顺序排列的状态转移过程来描述是不够充分的,因为不同发音人、不同的发音环境、不同的发音时间发

基于DTW模型的语音识别

西南林学院 本科毕业(设计)论文 (二○○四届) 题目:基于DTW模型的语音识别 分院系部:计算机与信息科学系 专业:计算机科学与技术 姓名: 导师姓名: 导师职称: 二○○四年六月一日

基于DTW模型的语音识别 彭丹 (西南林学院计算机与信息科学系,云南昆明 650224) 摘要:语音识别(Speech Recognition)是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的技术。在课题中,通过采用DTW(Dynamic time warping, 动态时间伸缩)算法,对实现孤立词的识别进行了初步探讨和研究,实现了在MATLAB 软件环境下孤立词语的语音识别,并针对DTW的主要特点及不足做出了总结。 DTW算法基于动态规划(DP)的思想,解决了孤立词发音长短不一的模板匹配问题。文中还针对动态规划的不足提出了改进。 关键词:语音识别DTW MATLAB 动态规划

Voice-Identification Based on DTW Model Dan Peng (Dept. of Computer and Information Science, Southwest Forestry College, Kunming, Y unan, 650224, China) Abstract:V oice-identification is a kind of technology that is using computer to transfer the voice signal to an associated text or command by identification and understand. In this paper, DTW arithmetic is adapted to study and research the implement the identification of single-word, and Speech recognition for single-word is realized by using MATLAB. In the end, this paper gets a conclusion on the feature and the shortage of DTW. DTW arithmetic based on the method of DP has solved the problem that the voice has different time during the template matching. This paper also put forward some advises about DP. Key words: V oice-Identification DTW MATLAB DP

基于DTW算法的语音识别原理与实现概要

基于DTW算法的语音识别原理与实现 【摘要】以一个能识别数字0~9的语音识别系统的实现过程为例,阐述了基于DTW算法的特定人孤立词语音识别的基本原理和关键技术。其中包括对语音端点检测方法、特征参数计算方法和DTW算法实现的详细讨论,最后给出了在Matlab下的编程方法和实验结果。 【关键字】语音识别;端点检测;MFCC系数;DTW算法 【中图分类号】TN912.34 【文献标识码】A 0引言 自计算机诞生以来,通过语音与计算机交互一直是人类的梦想,随着计算机软硬件和信息技术的飞速发展,人们对语音识别功能的需求也更加明显和迫切。语音识别技术就是让机器通过识别和理解过程把人类的语音信号转变为相应的文本或命令的技术,属于多维模式识别和智能计算机接口的范畴[1]。传统的键盘、鼠标等输入设备的存在大大妨碍了系统的小型化[10],而成熟的语音识别技术可以辅助甚至取代这些设备。在PDA、智能手机、智能家电、工业现场、智能机器人等方面语音识别技术都有着广阔的前景。 语音识别技术起源于20世纪50年代,以贝尔实验室的Audry系统为标志[1,8]。先后取得了线性预测分析(LP)、动态时间归整(DTW)、矢量量化(VQ)、隐马尔可夫模型(HMM)等一系列关键技术的突破和以IBM的ViaVoice、Microsoft的VoiceExpress[9]为代表的一批显著成果。国内的语音识别起步较晚,1987年开始执行国家863计划后语音识别技术才得到广泛关注。具有代表性的研究单位为清华大学电子工程系与中科院自动化研究所模式识别国家重点实验室,中科院声学所等[9]。其中中科院自动化所研制的非特定人连续语音听写系统和汉语语音人机对话系统,其准确率和系统响应率均可达90%以上[1]。 常见的语音识别方法有动态时间归整技术(DTW)、矢量量化技术(VQ)、隐马尔可夫模型(HMM)、基于段长分布的非齐次隐马尔可夫模型(DDBHMM)和人工神经元网络(ANN)[1,9]。DTW 是较早的一种模式匹配和模型训练技术,它应用动态规划的思想成功解决了语音信号特征参数序列比较时时长不等的难题,在孤立词语音识别中获得了良好性能。虽然HMM模型和ANN 在连续语音大词汇量语音识别系统优于DTW,但由于DTW算法计算量较少、无需前期的长期训练,也很容易将DTW算法移植到单片机、DSP上实现语音识别且能满足实时性[7]要求,故其在孤立词语音识别系统中仍然得到了广泛的应用。本文将通过能识别数字0~9的语音识

相关主题