<?xml version="1.0"?>
<?xml-stylesheet type="text/css" href="http://index.cslt.org/mediawiki/skins/common/feed.css?303"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-cn">
		<id>http://index.cslt.org/mediawiki/index.php?action=history&amp;feed=atom&amp;title=News-2022-01-31</id>
		<title>News-2022-01-31 - 版本历史</title>
		<link rel="self" type="application/atom+xml" href="http://index.cslt.org/mediawiki/index.php?action=history&amp;feed=atom&amp;title=News-2022-01-31"/>
		<link rel="alternate" type="text/html" href="http://index.cslt.org/mediawiki/index.php?title=News-2022-01-31&amp;action=history"/>
		<updated>2026-04-08T18:37:14Z</updated>
		<subtitle>本wiki的该页面的版本历史</subtitle>
		<generator>MediaWiki 1.23.3</generator>

	<entry>
		<id>http://index.cslt.org/mediawiki/index.php?title=News-2022-01-31&amp;diff=39117&amp;oldid=prev</id>
		<title>2022年8月16日 (二) 11:45 Chenrenmiao</title>
		<link rel="alternate" type="text/html" href="http://index.cslt.org/mediawiki/index.php?title=News-2022-01-31&amp;diff=39117&amp;oldid=prev"/>
				<updated>2022-08-16T11:45:35Z</updated>
		
		<summary type="html">&lt;p&gt;&lt;/p&gt;
&lt;table class='diff diff-contentalign-left'&gt;
				&lt;col class='diff-marker' /&gt;
				&lt;col class='diff-content' /&gt;
				&lt;col class='diff-marker' /&gt;
				&lt;col class='diff-content' /&gt;
				&lt;tr style='vertical-align: top;'&gt;
				&lt;td colspan='2' style=&quot;background-color: white; color:black; text-align: center;&quot;&gt;←上一版本&lt;/td&gt;
				&lt;td colspan='2' style=&quot;background-color: white; color:black; text-align: center;&quot;&gt;2022年8月16日 (二) 11:45的版本&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第7行：&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第7行：&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&amp;#160; &amp;#160;&lt;/div&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&amp;#160; &amp;#160;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;−&lt;/td&gt;&lt;td style=&quot;color:black; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;CNSRC 2022 (CN-Celeb Speaker Recognition Challenge 2022) &lt;del class=&quot;diffchange diffchange-inline&quot;&gt;目的是验证当前说话人识别技术在实际复杂场景下的真实可用性。本次评测基于清华大学语音语言技术中心发布的多场景中文明星数据库 &lt;/del&gt;CN-Celeb [1,2]。该数据库包含了互联网公开可下载的 3000 位中国明星的声音数据，覆盖访谈、演讲、歌唱、影视、文娱等多种复杂场景。CN-Celeb 是目前已知最为复杂的说话人数据库，是验证说话人识别系统实际性能的金标准。关于 CN-Celeb 的更多信息，可访问数据库官网 http://cnceleb.org 。&lt;/div&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;+&lt;/td&gt;&lt;td style=&quot;color:black; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;CNSRC 2022 (CN-Celeb Speaker Recognition Challenge 2022) &lt;ins class=&quot;diffchange diffchange-inline&quot;&gt;目的是验证当前说话人识别技术在实际复杂场景下的真实可用性。本次评测基于清华大学语音和语言技术团队发布的多场景中文明星数据库 &lt;/ins&gt;CN-Celeb [1,2]。该数据库包含了互联网公开可下载的 3000 位中国明星的声音数据，覆盖访谈、演讲、歌唱、影视、文娱等多种复杂场景。CN-Celeb 是目前已知最为复杂的说话人数据库，是验证说话人识别系统实际性能的金标准。关于 CN-Celeb 的更多信息，可访问数据库官网 http://cnceleb.org 。&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[文件:%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20220202091756.jpg]]&lt;/div&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[文件:%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20220202091756.jpg]]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>Chenrenmiao</name></author>	</entry>

	<entry>
		<id>http://index.cslt.org/mediawiki/index.php?title=News-2022-01-31&amp;diff=37722&amp;oldid=prev</id>
		<title>Cslt：以“由 Odyssey 2022 组委会发起，清华大学、厦门大学、希尔贝壳公司共同主办的 CNSRC 2022 说话人识别竞赛即日启动，接受报名。...”为内容创建页面</title>
		<link rel="alternate" type="text/html" href="http://index.cslt.org/mediawiki/index.php?title=News-2022-01-31&amp;diff=37722&amp;oldid=prev"/>
				<updated>2022-02-02T01:24:54Z</updated>
		
		<summary type="html">&lt;p&gt;以“由 Odyssey 2022 组委会发起，清华大学、厦门大学、希尔贝壳公司共同主办的 CNSRC 2022 说话人识别竞赛即日启动，接受报名。...”为内容创建页面&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新页面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;由 Odyssey 2022 组委会发起，清华大学、厦门大学、希尔贝壳公司共同主办的 CNSRC 2022 说话人识别竞赛即日启动，接受报名。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
说话人识别是一种基于声音来判断说话人身份的生物认证技术，具有低成本、弱隐私、无接触等优点，在金融、安防、司法等领域有着广泛应用前景。近年来，随着深度学习技术的进步和大数据的积累，说话人识别取得显著进展，在若干评测集上取得了极高的精度。然而，这些评测集难以模拟实际应用场景的复杂性，得到的评测结果往往与实际真实性能严重不符。因此，当前说话人识别在实际复杂场景下的真实性能到底如何，到目前为止还没有明确的结论。&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
CNSRC 2022 (CN-Celeb Speaker Recognition Challenge 2022) 目的是验证当前说话人识别技术在实际复杂场景下的真实可用性。本次评测基于清华大学语音语言技术中心发布的多场景中文明星数据库 CN-Celeb [1,2]。该数据库包含了互联网公开可下载的 3000 位中国明星的声音数据，覆盖访谈、演讲、歌唱、影视、文娱等多种复杂场景。CN-Celeb 是目前已知最为复杂的说话人数据库，是验证说话人识别系统实际性能的金标准。关于 CN-Celeb 的更多信息，可访问数据库官网 http://cnceleb.org 。&lt;br /&gt;
&lt;br /&gt;
[[文件:%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20220202091756.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
当前主流说话人识别技术在 CN-Celeb 标准评测集上的等错误率 (EER) 在 10% 左右。其中，跨场景测试的等错误率可达 35% 以上。这一性能远低于 SITW、VoxSRC 等相关主流评测集的结果，也远低于实际应用中可容忍的性能下界。CNSRC 2022 说话人识别竞赛的目的是基于这一复杂数据集，确定当前说话人识别技术在真实场景下的真实性能，甄别各种技术面对多复杂场景的实际有效性，探索提高说话人识别系统真实可用性的数据方法和模型方法。和以往类似评测相比，CNSRC 2022 具有极高的挑战性。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[文件:%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20220202091800.jpg]]&lt;br /&gt;
&lt;br /&gt;
CNSRC 2022 共设有两个任务：说话人确认 (Speaker Verification) 和说话人检出 (Speaker Retrieval)；前者验证测试语音是否属于某一声称说话人，后者从50万背景语音中检出目标说话人的10句发音。每个任务依训练数据不同，又分为固定赛道 (Fixed Track) 和开放赛道 (Open Track)，前者仅允许使用 CN-Celeb 作为训练集，目的是验证算法先进性；后者可利用任何数据进行训练，目的是验证当前技术能达到的性能上界。厦门大学、清华大学将分别提供两套基线系统，供参赛者作为对比参考。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
CNSRC 2022 对任何个人和机构开放，并鼓励参赛者基于其竞赛系统形成论文在Odyssey 2022 上发表。目前，竞赛官网已经启动并接受报名。关于竞赛规则、时间节点、论文发表等更多信息，可扫描下方二维码进入竞赛官网，或在浏览器中访问网址 http://cnceleb.org/competition 。&lt;br /&gt;
&lt;br /&gt;
[[文件:%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20220202091805.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[1] Y. Fan, J.W. Kang, L.T. Li, K.C. Li, H.L. Chen, S.T. Cheng, P.Y. Zhang, Z.Y. Zhou, Y.Q. Cai, D. Wang, CN-Celeb: A Challenging Chinese Speaker Recognition Dataset, ICASSP, 2020.&lt;br /&gt;
&lt;br /&gt;
[2] L.T. Li, R.Q. Liu, J.W. Kang, Y. Fan, H. Cui, Y.Q. Cai, R. Vipperla, T.F. Zheng, D. Wang, CN-Celeb: Multi-Genre Speaker Recognition, Speech Communication, 2022.&lt;/div&gt;</summary>
		<author><name>Cslt</name></author>	</entry>

	</feed>