🚀 LeBenchmark:基於3000小時法語語音訓練的wav2vec2大型模型
LeBenchmark提供了一系列在不同法語數據集上預訓練的wav2vec2模型,這些數據集包含自發、朗讀和廣播語音。它有兩個版本,其中,後期版本(LeBenchmark 2.0)在預訓練的自監督學習(SSL)模型數量和下游任務數量方面都是第一個版本的擴展。
如需瞭解更多可用於評估wav2vec2模型的不同基準測試信息,請參考我們的論文:LeBenchmark 2.0:一個標準化、可複製且增強的法語語音自監督表示框架
✨ 主要特性
- 提供多種基於不同法語數據集預訓練的wav2vec2模型。
- 模型版本不斷擴展,功能更豐富。
- 可在不同工具中進行微調,適用於多種語音處理任務。
📦 安裝指南
文檔未提及安裝步驟,故跳過該章節。
📚 詳細文檔
模型和數據描述
我們發佈了四個不同的模型,可在我們的HuggingFace組織下找到。四種不同的wav2vec2架構 Light、Base、Large 和 xLarge 與我們的小型(1000小時)、中型(3000小時)、大型(7000小時)和超大型(14000小時)語料庫相結合。簡而言之:
Lebenchmark 2.0
Lebenchmark
預期用途和限制
預訓練的wav2vec2模型根據Apache - 2.0許可證分發。因此,它們可以廣泛重用,沒有嚴格的限制。但是,基準測試和數據可能與未完全開源的語料庫相關聯。
使用Fairseq進行基於CTC的自動語音識別(ASR)微調
由於我們的wav2vec2模型是使用Fairseq訓練的,因此可以使用他們提供的不同工具對模型進行基於CTC的ASR微調。完整的過程已在這篇博客文章中進行了很好的總結。
請注意,由於CTC的性質,語音轉文本的結果預計不會達到最先進水平。此外,未來的功能可能會根據Fairseq和HuggingFace在這方面的參與情況而出現。
集成到SpeechBrain進行ASR、說話人識別、源分離等
預訓練的wav2vec模型最近越來越受歡迎。與此同時,SpeechBrain工具包問世,它提出了一種新的、更簡單的方法來處理最先進的語音和深度學習技術。
雖然目前它還處於測試階段,但SpeechBrain提供了兩種很好的方法來集成使用Fairseq訓練的wav2vec2模型,即我們的LeBenchmark模型!
- 即時提取wav2vec2特徵(使用凍結的wav2vec2編碼器),並與任何與語音相關的架構相結合。例如:基於CTC + 注意力 + 語言模型的端到端ASR;說話人識別或驗證、源分離等。
- 實驗性:為了充分利用wav2vec2,最佳解決方案仍然是在訓練下游任務時對模型進行微調。在SpeechBrain中,只需打開一個標誌就可以非常簡單地實現這一點。因此,我們的wav2vec2模型可以在訓練您喜歡的ASR管道或說話人識別器時進行微調。
如果感興趣,只需遵循本教程
引用LeBenchmark
@misc{parcollet2023lebenchmark,
title={LeBenchmark 2.0: a Standardized, Replicable and Enhanced Framework for Self-supervised Representations of French Speech},
author={Titouan Parcollet and Ha Nguyen and Solene Evain and Marcely Zanon Boito and Adrien Pupier and Salima Mdhaffar and Hang Le and Sina Alisamir and Natalia Tomashenko and Marco Dinarelli and Shucong Zhang and Alexandre Allauzen and Maximin Coavoux and Yannick Esteve and Mickael Rouvier and Jerome Goulian and Benjamin Lecouteux and Francois Portet and Solange Rossato and Fabien Ringeval and Didier Schwab and Laurent Besacier},
year={2023},
eprint={2309.05472},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
📄 許可證
預訓練的wav2vec2模型根據Apache - 2.0許可證分發。