Whisper Large V3 Speech Flow
Apache-2.0
Whisper Large v3を基にした音声流暢性分類モデルで、音声の流暢性と非流暢タイプを検出可能
音声分類
Safetensors 英語
W
tiantiaf
157
1
Whisper Finetuned
MIT
Whisper-large-v3-turboを微調整したインド英語アクセント音声認識モデル、単語誤り率4.39%
音声認識
Transformers 英語

W
Tejveer12
25
2
Whisper Large V3 Cantonese
Apache-2.0
Whisper v3を微調整した広東語自動音声認識モデル、Common Voice 17データセットで訓練
音声認識
Transformers その他

W
khleeloo
25
4
Speech Emotion Recognition With Openai Whisper Large V3
Apache-2.0
本プロジェクトではWhisperモデルを利用して音声感情認識を実現し、音声を喜び、悲しみ、驚きなどの異なる感情カテゴリに分類することができます。
音声分類
Transformers

S
firdhokk
7,750
33
Whisper Tiny De Emodb Emotion Classification
Apache-2.0
openai/whisper-tinyを微調整したドイツ語感情分類モデル、Emo-DBデータセットで91.59%の精度を達成
音声分類
Transformers ドイツ語

W
Flocksserver
27
0
Whisper Large V3 Myanmar
Apache-2.0
このモデルは、openai/whisper-large-v3をミャンマー語音声データセットで微調整した自動音声認識モデルで、ミャンマー語の音声文字起こしに特化しています。
音声認識
Transformers その他

W
chuuhtetnaing
172
1
Monsoon Whisper Medium Gigaspeech2
Apache-2.0
Monsoon-Whisper-Medium-GigaSpeech2は、タイ語自動音声認識(ASR)モデルで、Whisper-Mediumを基にGigaSpeech2データセットで微調整されており、実世界の音声認識に適しています。
音声認識
Transformers

M
scb10x
546
5
Pronunciation Accuracy
Apache-2.0
OpenAI Whisper-baseを微調整した発音正確度評価モデルで、音声発音の正確性を評価するために使用されます
音声認識
Transformers

P
JohnJumon
18
2
Phowhisper Large
Bsd-3-clause
PhoWhisperはベトナム語自動音声認識のために特別に設計されたシステムで、Whisperモデルを微調整しており、さまざまなベトナム語のアクセントをサポートしています。
音声認識
Transformers その他

P
vinai
2,373
28
Whisper Small Keyword Spotting
Apache-2.0
openai/whisper-smallを微調整した音声キーワード認識モデルで、kw-spotting-fsc-sl-agvデータセットで訓練され、評価精度は99.98%に達しました
音声分類
Transformers

W
FlandersMakeAGV
24
0
Whisper Medium Arabic
Apache-2.0
openai/whisper-mediumを微調整したアラビア語音声認識モデルで、ストリーミング処理に対応しています。
音声認識
Transformers

W
Seyfelislem
1,832
5
Whisper Large V2 Spanish
Apache-2.0
openai/whisper-large-v2を微調整したスペイン語音声認識モデル、Common Voice 11.0スペイン語テストセットでWER8.55%を達成
音声認識
Transformers

W
clu-ling
85
2
Whisper Medium Portuguese
Apache-2.0
openai/whisper-mediumをcommon_voice_11_0データセットで微調整したポルトガル語音声認識モデル、単語誤り率6.5987
音声認識
Transformers その他

W
pierreguillou
191
28
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98