Wav2vec2 Child En Tokenizer 4
W
Wav2vec2 Child En Tokenizer 4
jaeyeonによって開発
このモデルはfacebook/wav2vec2-xls-r-300mをファインチューニングしたバージョンで、英語の児童音声認識タスクに特化しています。
ダウンロード数 16
リリース時間 : 4/8/2022
モデル概要
wav2vec2-child-en-tokenizer-4は音声認識モデルで、特に児童の英語音声に最適化されています。単語誤り率(WER)の面で優れた性能を発揮し、教育や児童向け音声インタラクションなどのシナリオに適しています。
モデル特徴
児童音声最適化
児童の音声特性に特化してファインチューニングされ、認識精度を向上
効率的なトレーニング
勾配累積や混合精度トレーニングなどの技術を使用してトレーニング効率を最適化
安定した性能
検証セットで安定した損失と単語誤り率を示す
モデル能力
英語音声認識
児童音声処理
リアルタイム音声テキスト変換
使用事例
教育
児童向け英語学習アプリ
児童向け英語学習アプリの音声インタラクション機能開発に使用
単語誤り率0.3769
スマートトイ
スマートトイ音声制御
児童向けスマートトイに音声認識機能を提供
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98