🚀 LeBenchmark:基於2600小時法語語音訓練的wav2vec2基礎模型
LeBenchmark提供了一系列在不同法語數據集上預訓練的wav2vec2模型,這些數據集包含自發、朗讀和廣播語音。它有兩個版本,其中,後期版本(LeBenchmark 2.0)在預訓練的自監督學習(SSL)模型數量和下游任務數量上都是第一個版本的擴展。
有關可用於評估wav2vec2模型的不同基準測試的更多信息,請參考我們的論文:LeBenchmark 2.0:一個標準化、可複製且增強的法語語音自監督表示框架
✨ 主要特性
- 提供多種不同架構和語料規模組合的wav2vec2模型。
- 模型可在多種工具中使用,如Fairseq和SpeechBrain。
- 模型遵循Apache - 2.0許可證,可廣泛複用。
📦 模型和數據描述
我們發佈了四個不同的模型,可在我們的HuggingFace組織下找到。四種不同的wav2vec2架構 Light、Base、Large 和 xLarge 分別與我們的小(1K)、中(3K)、大(7K)和超大(14K)語料庫相結合。簡而言之:
Lebenchmark 2.0
Lebenchmark
📚 預期用途和限制
預訓練的wav2vec2模型遵循Apache - 2.0許可證分發。因此,它們可以廣泛複用,沒有嚴格限制。然而,基準測試和數據可能與並非完全開源的語料庫相關聯。
💻 使用示例
使用Fairseq進行基於CTC的自動語音識別(ASR)微調
由於我們的wav2vec2模型是使用Fairseq訓練的,因此可以使用他們提供的不同工具對模型進行基於CTC的自動語音識別微調。完整的步驟已在這篇博客文章中進行了很好的總結。
請注意,由於CTC的性質,語音轉文本的結果預計不會達到最先進水平。此外,未來可能會根據Fairseq和HuggingFace在這方面的參與情況出現新的功能。
集成到SpeechBrain進行自動語音識別、說話人識別、源分離等
預訓練的wav2vec模型最近越來越受歡迎。與此同時,SpeechBrain工具包問世,它提出了一種處理最先進語音和深度學習技術的新的、更簡單的方法。
雖然目前它還處於測試階段,但SpeechBrain提供了兩種很好的方法來集成使用Fairseq訓練的wav2vec2模型,即我們的LeBenchmark模型!
- 動態提取wav2vec2特徵:(使用凍結的wav2vec2編碼器)與任何與語音相關的架構相結合。例如:基於CTC + 注意力 + 語言模型的端到端自動語音識別;說話人識別或驗證、源分離等。
- 實驗性方法:為了充分利用wav2vec2,最佳解決方案仍然是在訓練下游任務時對模型進行微調。在SpeechBrain中,只需打開一個標誌即可輕鬆實現。因此,我們的wav2vec2模型可以在訓練您喜歡的自動語音識別管道或說話人識別器時進行微調。
如果感興趣,只需遵循這個教程
📄 引用LeBenchmark
@misc{parcollet2023lebenchmark,
title={LeBenchmark 2.0: a Standardized, Replicable and Enhanced Framework for Self-supervised Representations of French Speech},
author={Titouan Parcollet and Ha Nguyen and Solene Evain and Marcely Zanon Boito and Adrien Pupier and Salima Mdhaffar and Hang Le and Sina Alisamir and Natalia Tomashenko and Marco Dinarelli and Shucong Zhang and Alexandre Allauzen and Maximin Coavoux and Yannick Esteve and Mickael Rouvier and Jerome Goulian and Benjamin Lecouteux and Francois Portet and Solange Rossato and Fabien Ringeval and Didier Schwab and Laurent Besacier},
year={2023},
eprint={2309.05472},
archivePrefix={arXiv},
primaryClass={cs.CL}
}