Whisper Large V3 Narrow Accent
Bsd-3-clause
Whisper-Large v3を基にした細粒度アクセント分類モデルで、16種類の英語アクセント認識をサポート
音声分類
Safetensors 英語
W
tiantiaf
237
3
Voc2vec As Pt
Apache-2.0
voc2vecは非言語人間データ専用に設計された基本モデルで、wav2vec 2.0フレームワークに基づいて構築されています。
音声分類
Transformers 英語

V
alkiskoudounas
31
0
My Frugal Audio Model
Apache-2.0
これはfacebook/wav2vec2-baseをファインチューニングした音声処理モデルで、主に音声関連タスクに使用されます
音声分類
Transformers

M
hsalehILB
1
0
W2v Bert 2.0
MIT
Conformerアーキテクチャに基づく音声エンコーダーで、450万時間のラベルなし音声データで事前学習され、143以上の言語をサポート
音声認識
Transformers 複数言語対応

W
facebook
477.05k
170
My Awesome Mind Model
Apache-2.0
facebook/wav2vec2-baseをファインチューニングしたオーディオ分類モデルで、評価データセットで58.92%の精度を達成
音声分類
Transformers

M
Krithika-p
15
0
Distilhubert Finetuned Gtzan
Apache-2.0
DistilHuBERTアーキテクチャを基にGTZAN音楽分類データセットでファインチューニングした軽量オーディオ分類モデル
音声分類
Transformers

D
CornerINCorner
20
0
Speech Accent Classification
Apache-2.0
Wav2Vec2アーキテクチャに基づく音声認識の基本モデルで、960時間の英語音声データでトレーニングされており、音声分類タスクに適しています。
音声分類
Transformers 英語

S
dima806
40
4
Digit Mask Data2vec Audio Base 960h Ft
Apache-2.0
data2vec-audio-base-960hを微調整した音声数字認識モデルで、数字マスキング拡張データセットで優れた性能を発揮
音声分類
Transformers

D
mazkooleg
14
0
Wavlm Basic S F O 8batch 10sec 0.0001lr Unfrozen
microsoft/wavlm-largeを微調整した音声処理モデルで、評価セットで80%の精度と79.57%のF1スコアを達成
音声分類
Transformers

W
reralle
14
0
Wav2vec2 S F O 8batch 5sec 0.0001lr Unfrozen
Apache-2.0
facebook/wav2vec2-largeを微調整した音声処理モデルで、音声認識タスクをサポート
音声認識
Transformers

W
reralle
21
0
Wavlm Basic S R 5c 8batch 5sec 0.0001lr Unfrozen
microsoft/wavlm-largeをファインチューニングした音声処理モデル、評価セットで75%の精度達成
音声分類
Transformers

W
reralle
16
0
Wavlm Basic N F N 8batch 5sec 0.0001lr Unfrozen
microsoft/wavlm-largeをファインチューニングした音声処理モデル、評価セットで73.33%の精度を達成
音声分類
Transformers

W
reralle
14
0
Wav2vec2 Base POSITIVE NEGATIVE ONLY BALANCED CLASSES
Apache-2.0
facebook/wav2vec2-baseを微調整した音声処理モデルで、バランス正負クラス分類タスクに特化
音声分類
Transformers

W
aherzberg
17
0
Wav2vec2 Nsc Final 1 Google Colab
wav2vec2アーキテクチャに基づく音声処理モデル、トレーニング詳細は完全に公開されていません
音声認識
Transformers

W
YuanWellspring
99
0
Wav2vec Test
これはwav2vecアーキテクチャに基づく音声処理テストモデルで、具体的な用途とトレーニングデータは明記されていません。
音声認識
Transformers

W
eugenetanjc
73
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98