<?xml version="1.0"?>
<?xml-stylesheet type="text/css" href="http://index.cslt.org/mediawiki/skins/common/feed.css?303"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-cn">
		<id>http://index.cslt.org/mediawiki/index.php?action=history&amp;feed=atom&amp;title=Sinovoice-2016-1-27</id>
		<title>Sinovoice-2016-1-27 - 版本历史</title>
		<link rel="self" type="application/atom+xml" href="http://index.cslt.org/mediawiki/index.php?action=history&amp;feed=atom&amp;title=Sinovoice-2016-1-27"/>
		<link rel="alternate" type="text/html" href="http://index.cslt.org/mediawiki/index.php?title=Sinovoice-2016-1-27&amp;action=history"/>
		<updated>2026-04-14T21:47:02Z</updated>
		<subtitle>本wiki的该页面的版本历史</subtitle>
		<generator>MediaWiki 1.23.3</generator>

	<entry>
		<id>http://index.cslt.org/mediawiki/index.php?title=Sinovoice-2016-1-27&amp;diff=18861&amp;oldid=prev</id>
		<title>Zhangzy：以“==数据==  *16K 灵云数据  10000小时实际语料的标注目标，已立项400小时的标注； 语料从1000小时中，通过ASR打分，取出中间的400...”为内容创建页面</title>
		<link rel="alternate" type="text/html" href="http://index.cslt.org/mediawiki/index.php?title=Sinovoice-2016-1-27&amp;diff=18861&amp;oldid=prev"/>
				<updated>2016-01-27T06:58:03Z</updated>
		
		<summary type="html">&lt;p&gt;以“==数据==  *16K 灵云数据  10000小时实际语料的标注目标，已立项400小时的标注； 语料从1000小时中，通过ASR打分，取出中间的400...”为内容创建页面&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新页面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;==数据==&lt;br /&gt;
&lt;br /&gt;
*16K 灵云数据 &lt;br /&gt;
10000小时实际语料的标注目标，已立项400小时的标注；&lt;br /&gt;
语料从1000小时中，通过ASR打分，取出中间的400小时；&lt;br /&gt;
&lt;br /&gt;
*粤语标注了一个测试集，增量9小时，CER：54%；30h,50%&lt;br /&gt;
60h trained. no tag text to lm, CER 45%&lt;br /&gt;
discard english text;&lt;br /&gt;
&lt;br /&gt;
*维语&lt;br /&gt;
已完成120小时；last train 50h;&lt;br /&gt;
16K标注，灵云，180小时，收集验收；&lt;br /&gt;
&lt;br /&gt;
===大模型===&lt;br /&gt;
1）16K10000小时的跑一个DNN训练，加深加宽：7层2400x10000  rectifier 保留英文&lt;br /&gt;
&lt;br /&gt;
MPE的训练:&lt;br /&gt;
Condition: LM:1e-5/1e-9&lt;br /&gt;
                                            test_8000ju     test_10000ju                      &lt;br /&gt;
 6000H 600*4_800  xEnt                    :  15.16            28.03&lt;br /&gt;
 6000H 600*4_800  mpe                     :  12.09            23.51&lt;br /&gt;
 6776H 1200*4_10000 mpe                   :  9.48             18.07&lt;br /&gt;
 &lt;br /&gt;
 10000H 600*4_800 xEnt（迭代21轮）        :  15.91&lt;br /&gt;
 10000H 600*4_800 xEnt（迭代完成）        :  15.56            26.71&lt;br /&gt;
 10000H 2048*7_12000 xEnt(迭代1.7轮)      :  10.12&lt;br /&gt;
 10000H 2048*7_12000 xEnt(迭代2.6轮)      :  9.73&lt;br /&gt;
 10000H 2048*7_12000 xEnt(迭代3.8轮)      :  9.51&lt;br /&gt;
 10000H 2048*7_12000 xEnt(迭代5.1轮)      :  9.53&lt;br /&gt;
 10000H 2048*7_12000 xEnt(迭代6.0轮)      :  9.41             17.75&lt;br /&gt;
 10000H 2048*7_12000 xEnt(700.mdl  )      :  9.35             17.71&lt;br /&gt;
 10000H 2048*7_12000 xEnt(800.mdl  )      :  9.27             17.57&lt;br /&gt;
 10000H 2048*7_12000 xEnt(900.mdl  )      :  9.20             17.51&lt;br /&gt;
 10000H 2048*7_12000 xEnt(965.mdl  )      :  9.20             17.60&lt;br /&gt;
 10000H 2048*7_12000 200H mpe(2.mdl  )    :  8.80             15.99&lt;br /&gt;
 10000H 2048*7_12000 200H mpe(8.mdl  )    :  8.71             15.91&lt;br /&gt;
 10000H 2048*7_12000 1000H mpe(13.mdl)    :  8.60             15.84&lt;br /&gt;
&lt;br /&gt;
2）8K 领域模型，领域通用：设备 7层TDNN2048x10000,含有英文   信道、口音&lt;br /&gt;
   华为V3信道压缩：4000小时，GMM&lt;br /&gt;
&lt;br /&gt;
结果如下：&lt;br /&gt;
|                  |   BJYD  |   JS2h  |ShaanXi2h| ShanXi2h|huaweiFuCe|UnKnown2h|&lt;br /&gt;
| nnet1 1400h MPE  |  22.49  |  19.81  |  19.63  |  21.90  |  16.72   |  22.00  |&lt;br /&gt;
| nnet1 4200h xEnt |  26.89  |  19.90  |  25.43  |  26.90  |  16.15   |  24.13  |&lt;br /&gt;
| nnet1 4200h MPE  |  24.53  |  18.39  |  22.82  |  23.97  |  14.22   |  21.35  |&lt;br /&gt;
&lt;br /&gt;
在A01辽宁移动测试集上的实验结果：&lt;br /&gt;
dnn模型（mpe增量训练后）：                          22.39&lt;br /&gt;
华为信道模型：                                      20.26&lt;br /&gt;
用辽宁移动数据在华为信道模型上做增量（6 mdl）：     18.16&lt;br /&gt;
用辽宁移动数据在华为信道模型上做增量（16 mdl）：    17.85&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===嵌入式===&lt;br /&gt;
  * 10000h-chain 5*400+800 has been training.&lt;br /&gt;
  * Dark-knowledge training scripts ready&lt;br /&gt;
&lt;br /&gt;
===TagModel===&lt;br /&gt;
*加重path或词边：组合词，lm中加重；                             晓明、小韩&lt;br /&gt;
:* 新词加重及添加&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===勤威项目===&lt;br /&gt;
*发布了一个模型：数据62H台湾POI，在6776MPE3上增量；词表量250多万，识别不好；&lt;br /&gt;
省市路，分词，句式：tag的方法来做。                 晓明&lt;br /&gt;
需要测试集，数据中心14日标完。&lt;br /&gt;
&lt;br /&gt;
===语音自适应===&lt;br /&gt;
针对个人的&lt;br /&gt;
能提高2~3%(基数CER约10%)&lt;br /&gt;
客户端提取ivector，传给服务器；&lt;br /&gt;
&lt;br /&gt;
===End-To-End/CTC===&lt;br /&gt;
Kaldi-nnet1, Kaldi-CTC, Kaldi-Chain and Eesen on WSJ. If GPU Parallel, then on grid-12 and grid-13.&lt;br /&gt;
mpe-2 means method that considering Transition instead of CctcTransition when mpe, while&lt;br /&gt;
mpe-1 means method that considering CctcTransition.&lt;br /&gt;
---------------------------------------------------------------------------------&lt;br /&gt;
          model                                                        %WER (test_eval92)    %WER (after MPE)&lt;br /&gt;
---------------------------------------------------------------------------------&lt;br /&gt;
kaldi/nnet1/dnn_2048_4(cd-dnn-hmm)                                     4.18&lt;br /&gt;
---------------------------------------------------------------------------------&lt;br /&gt;
kaldi/ctc/decode_bd_tgpr_plm0.15                                       8.01&lt;br /&gt;
kaldi/ctc/decode_bd_tgpr_plm0.15, mpe-2, iter1                         7.78&lt;br /&gt;
kaldi/ctc/decode_bd_tgpr_plm0.15, mpe-2, iter2                       __7.73__&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Test CTC-mpe (considering CctcTransition) on aurora4.&lt;br /&gt;
---------------------------------------------------------------------------------&lt;br /&gt;
model                                               %WER        learning rate&lt;br /&gt;
---------------------------------------------------------------------------------&lt;br /&gt;
kaldi/ctc/decode_bd_tgpr_plm0.15                    13.86&lt;br /&gt;
kaldi/ctc/decode_bd_tgpr_plm0.15_mpe_iter1          12.70       0.0002&lt;br /&gt;
kaldi/ctc/decode_bd_tgpr_plm0.15_mpe_iter2          12.28&lt;br /&gt;
kaldi/ctc/decode_bd_tgpr_plm0.15_mpe_iter3          12.43&lt;br /&gt;
kaldi/ctc/decode_bd_tgpr_plm0.15_mpe_iter4          12.34&lt;br /&gt;
---------------------------------------------------------------------------------&lt;br /&gt;
&lt;br /&gt;
==粤语16K==&lt;br /&gt;
===声学模型===&lt;br /&gt;
已训练完成 130H&lt;br /&gt;
&lt;br /&gt;
===语言模型===&lt;br /&gt;
下载语料，训练模型，PPL：1000+&lt;br /&gt;
16K模型：字错误率21.78&lt;br /&gt;
&lt;br /&gt;
==粤语8K==&lt;br /&gt;
69小时的（CER28%）  FreeTalk&lt;br /&gt;
90小时的（CER27.5%）质检&lt;br /&gt;
之前测试集有问题&lt;br /&gt;
字面和英文加入，测试集有，训练现在没有；&lt;br /&gt;
粤语只训练最后一层；90小时单独训练模型的最后一层加到1400的最后一层；&lt;br /&gt;
LM差的比较远；&lt;br /&gt;
英文单词还没有加（英文的标音：用粤语的音素标）；&lt;br /&gt;
粤英文的模型，需要训练；&lt;br /&gt;
                   &lt;br /&gt;
==维语8K==&lt;br /&gt;
===声学模型===&lt;br /&gt;
已训练35小时；借用梦原的模型；用16K的lm Model，WER：30%左右；&lt;br /&gt;
===语言模型===&lt;br /&gt;
和新疆大学调试：公司Word；实验室&lt;br /&gt;
35H标注文本数据已提供实验室处理；&lt;br /&gt;
toolkit做完了，维语句子转成monphone串；&lt;br /&gt;
&lt;br /&gt;
发布了一个维语模型，需要识别标注语料，发布的是word模型：&lt;br /&gt;
model_35h_20150828 CER:0.419693683925&lt;br /&gt;
&lt;br /&gt;
导出64小时，声学和语言模型进行优化。&lt;br /&gt;
&lt;br /&gt;
==声纹识别==&lt;br /&gt;
* 数字串模型训练 正在采集数字串语音数据，预期本月内完成；&lt;br /&gt;
* 聚类分类算法 基于Affinity距离的算法研究&lt;br /&gt;
* D-Vector&lt;br /&gt;
* 短语音的识别：&lt;br /&gt;
&lt;br /&gt;
数字模型：单独训练，ivector和plda需要用数字需要训练。&lt;br /&gt;
之前录得语料，独立人只有100人；&lt;br /&gt;
16K的找到一个1200人的数据，从中挑选；&lt;br /&gt;
8K的采购；但是音量小，是否会有影响?&lt;br /&gt;
&lt;br /&gt;
8个Phone和1个Tele的录音模型已训练完；&lt;br /&gt;
跨信道，阈值不一致；&lt;br /&gt;
需要解决跨信道的识别问题；&lt;br /&gt;
&lt;br /&gt;
手机和固定电话，需要分开测试；&lt;br /&gt;
ubm256，需要加大；&lt;br /&gt;
组织一下数据，跑D-vector实验；&lt;br /&gt;
&lt;br /&gt;
考勤系统，mic指定；&lt;br /&gt;
定制背景模型；&lt;br /&gt;
&lt;br /&gt;
加入情绪，场景的分析，分类的分析；&lt;br /&gt;
&lt;br /&gt;
将测试数据加入训练，看是否有提高？&lt;br /&gt;
&lt;br /&gt;
使用条件的问题：&lt;br /&gt;
  音量的影响？&lt;br /&gt;
  背景噪音：如大厅中，人声噪杂的影响？&lt;br /&gt;
&lt;br /&gt;
信道适应？&lt;br /&gt;
端点检测&lt;br /&gt;
Mic信道&lt;br /&gt;
背景噪音&lt;br /&gt;
&lt;br /&gt;
端点检测，信噪比计算；&lt;br /&gt;
发音方式：坐着、站着&lt;br /&gt;
&lt;br /&gt;
PLDA adaptation&lt;/div&gt;</summary>
		<author><name>Zhangzy</name></author>	</entry>

	</feed>