🚀 LeBenchmark:基于7000小时法语语音训练的wav2vec2大型模型
LeBenchmark提供了一组在不同法语数据集上预训练的wav2vec2模型,这些数据集包含自发、朗读和广播语音。它有两个版本,其中,后续版本(LeBenchmark 2.0)在预训练自监督学习(SSL)模型的数量和下游任务的数量方面都是第一个版本的扩展版本。
有关可用于评估wav2vec2模型的不同基准测试的更多信息,请参考我们的论文:LeBenchmark 2.0:用于法语语音自监督表示的标准化、可复制和增强框架
🚀 快速开始
本项目提供了一系列预训练的wav2vec2模型,可用于多种语音相关任务。你可以根据自己的需求选择合适的模型进行使用。
✨ 主要特性
- 提供多种不同架构和训练数据规模的wav2vec2模型。
- 模型可在不同语音任务中广泛复用。
- 支持使用Fairseq和SpeechBrain进行模型微调。
📦 安装指南
文档未提及具体安装步骤,故跳过此章节。
💻 使用示例
文档未提供代码示例,故跳过此章节。
📚 详细文档
模型和数据描述
我们发布了四个不同的模型,这些模型可以在我们的HuggingFace组织下找到。四种不同的wav2vec2架构 Light、Base、Large 和 xLarge 与我们的小型(1000小时)、中型(3000小时)、大型(7000小时)和超大型(14000小时)语料库相结合。简而言之:
Lebenchmark 2.0
Lebenchmark
预期用途和限制
预训练的wav2vec2模型遵循Apache - 2.0许可证分发。因此,它们可以广泛复用,没有严格的限制。然而,基准测试和数据可能与未完全开源的语料库相关联。
使用Fairseq进行基于CTC的自动语音识别(ASR)微调
由于我们的wav2vec2模型是使用Fairseq训练的,因此可以使用他们提供的不同工具对模型进行基于CTC的ASR微调。完整的步骤已在这篇博客文章中进行了很好的总结。
请注意,由于CTC的性质,语音转文本的结果预计不会达到最先进水平。此外,根据Fairseq和HuggingFace在这方面的参与情况,未来可能会出现新的功能。
集成到SpeechBrain进行ASR、说话人识别、源分离等任务
预训练的wav2vec模型最近越来越受欢迎。与此同时,SpeechBrain工具包问世,它提供了一种新的、更简单的方法来处理最先进的语音和深度学习技术。
虽然目前SpeechBrain仍处于测试阶段,但它提供了两种很好的方法来集成使用Fairseq训练的wav2vec2模型,即我们的LeBenchmark模型!
- 实时提取wav2vec2特征(使用冻结的wav2vec2编码器),并与任何语音相关架构相结合。例如:基于CTC + 注意力 + 语言模型的端到端ASR;说话人识别或验证、源分离等。
- 实验性:为了充分利用wav2vec2的优势,最佳解决方案是在训练下游任务时对模型进行微调。在SpeechBrain中,只需打开一个标志即可轻松实现。因此,我们的wav2vec2模型可以在训练你喜欢的ASR管道或说话人识别器时进行微调。
如果感兴趣,只需遵循本教程
🔧 技术细节
文档未提供具体技术实现细节,故跳过此章节。
📄 许可证
预训练的wav2vec2模型遵循Apache - 2.0许可证分发。
📖 引用LeBenchmark
@misc{parcollet2023lebenchmark,
title={LeBenchmark 2.0: a Standardized, Replicable and Enhanced Framework for Self-supervised Representations of French Speech},
author={Titouan Parcollet and Ha Nguyen and Solene Evain and Marcely Zanon Boito and Adrien Pupier and Salima Mdhaffar and Hang Le and Sina Alisamir and Natalia Tomashenko and Marco Dinarelli and Shucong Zhang and Alexandre Allauzen and Maximin Coavoux and Yannick Esteve and Mickael Rouvier and Jerome Goulian and Benjamin Lecouteux and Francois Portet and Solange Rossato and Fabien Ringeval and Didier Schwab and Laurent Besacier},
year={2023},
eprint={2309.05472},
archivePrefix={arXiv},
primaryClass={cs.CL}
}