🚀 LeBenchmark:基于2600小时法语语音训练的wav2vec2基础模型
LeBenchmark提供了一系列在不同法语数据集上预训练的wav2vec2模型,这些数据集包含自发、朗读和广播语音。它有两个版本,其中,后期版本(LeBenchmark 2.0)在预训练的自监督学习(SSL)模型数量和下游任务数量上都是第一个版本的扩展。
有关可用于评估wav2vec2模型的不同基准测试的更多信息,请参考我们的论文:LeBenchmark 2.0:一个标准化、可复制且增强的法语语音自监督表示框架
✨ 主要特性
- 提供多种不同架构和语料规模组合的wav2vec2模型。
- 模型可在多种工具中使用,如Fairseq和SpeechBrain。
- 模型遵循Apache - 2.0许可证,可广泛复用。
📦 模型和数据描述
我们发布了四个不同的模型,可在我们的HuggingFace组织下找到。四种不同的wav2vec2架构 Light、Base、Large 和 xLarge 分别与我们的小(1K)、中(3K)、大(7K)和超大(14K)语料库相结合。简而言之:
Lebenchmark 2.0
Lebenchmark
📚 预期用途和限制
预训练的wav2vec2模型遵循Apache - 2.0许可证分发。因此,它们可以广泛复用,没有严格限制。然而,基准测试和数据可能与并非完全开源的语料库相关联。
💻 使用示例
使用Fairseq进行基于CTC的自动语音识别(ASR)微调
由于我们的wav2vec2模型是使用Fairseq训练的,因此可以使用他们提供的不同工具对模型进行基于CTC的自动语音识别微调。完整的步骤已在这篇博客文章中进行了很好的总结。
请注意,由于CTC的性质,语音转文本的结果预计不会达到最先进水平。此外,未来可能会根据Fairseq和HuggingFace在这方面的参与情况出现新的功能。
集成到SpeechBrain进行自动语音识别、说话人识别、源分离等
预训练的wav2vec模型最近越来越受欢迎。与此同时,SpeechBrain工具包问世,它提出了一种处理最先进语音和深度学习技术的新的、更简单的方法。
虽然目前它还处于测试阶段,但SpeechBrain提供了两种很好的方法来集成使用Fairseq训练的wav2vec2模型,即我们的LeBenchmark模型!
- 动态提取wav2vec2特征:(使用冻结的wav2vec2编码器)与任何与语音相关的架构相结合。例如:基于CTC + 注意力 + 语言模型的端到端自动语音识别;说话人识别或验证、源分离等。
- 实验性方法:为了充分利用wav2vec2,最佳解决方案仍然是在训练下游任务时对模型进行微调。在SpeechBrain中,只需打开一个标志即可轻松实现。因此,我们的wav2vec2模型可以在训练您喜欢的自动语音识别管道或说话人识别器时进行微调。
如果感兴趣,只需遵循这个教程
📄 引用LeBenchmark
@misc{parcollet2023lebenchmark,
title={LeBenchmark 2.0: a Standardized, Replicable and Enhanced Framework for Self-supervised Representations of French Speech},
author={Titouan Parcollet and Ha Nguyen and Solene Evain and Marcely Zanon Boito and Adrien Pupier and Salima Mdhaffar and Hang Le and Sina Alisamir and Natalia Tomashenko and Marco Dinarelli and Shucong Zhang and Alexandre Allauzen and Maximin Coavoux and Yannick Esteve and Mickael Rouvier and Jerome Goulian and Benjamin Lecouteux and Francois Portet and Solange Rossato and Fabien Ringeval and Didier Schwab and Laurent Besacier},
year={2023},
eprint={2309.05472},
archivePrefix={arXiv},
primaryClass={cs.CL}
}