Wavlm Base Plus
WavLMはマイクロソフトによって開発された大規模な自己教師付き事前学習音声モデルで、16kHzサンプリングの音声オーディオを基に事前学習され、様々な音声処理タスクに適用できます。
ダウンロード数 673.32k
リリース時間 : 3/2/2022
モデル概要
WavLMはHuBERTフレームワークに基づいて構築された事前学習音声モデルで、音声内容のモデリングと話者特性の保持に特化しています。このモデルはSUPERBベンチマークテストで優れた性能を発揮し、音声認識、音声分類などの様々な下流タスクに適しています。
モデル特徴
大規模事前学習
モデルは6万時間のLibri - Light、1万時間のGigaSpeech、2.4万時間のVoxPopuliデータセットで事前学習されています。
フルスタック音声処理
音声内容のモデリングと話者特性の保持を最適化し、様々な音声処理タスクに適用できます。
話し声混合学習
教師なしで重複する話し声を生成する学習戦略を採用し、話者の識別性を強化します。
モデル能力
音声認識
音声分類
話者認証
話者ログ
使用事例
音声認識
英語音声をテキストに変換
英語の音声をテキスト内容に変換します。
SUPERBベンチマークテストで最先端レベルに達しました。
音声分類
感情分析
音声を通じて話者の感情状態を分析します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98