# 複数データセット訓練

Chunkformer Large Vie
ChunkFormerアーキテクチャに基づく大規模ベトナム語自動音声認識モデルで、約3000時間のベトナム語公開音声データで微調整され、優れた性能を発揮します。
音声認識 その他
C
khanhld
1,765
12
Viwhisper Medium
MIT
ベトナム語音声認識タスク向けに最適化されたWhisper-mediumモデル、1308時間のベトナム語データでファインチューニング済み
音声認識 Transformers その他
V
NhutP
139
4
Wav2vec2 Large Robust 24 Ft Age Gender
このモデルは生の音声信号を入力として、年齢予測値および性別確率(子供/女性/男性)を出力し、同時に最終層transformerのプール状態を出力します。
音声分類 Transformers
W
audeering
44.13k
33
Wav2vec2 Large Robust 6 Ft Age Gender
このモデルはWav2Vec2-Large-Robustを微調整することで、生の音声から話者の年齢と性別を予測できます。
音声分類 Transformers
W
audeering
19.29k
2
Silver Retriever Base V1
Silver Retrieverはポーランド語向けのニューラル検索モデルで、文の類似性や段落検索タスクに特化しています。
テキスト埋め込み Transformers その他
S
ipipan
554
11
All MiniLM L6 V2 Ct2 Int8
Apache-2.0
これはMiniLMアーキテクチャに基づく文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングでき、意味検索やテキスト類似度タスクに適しています。
テキスト埋め込み 英語
A
jncraton
40
0
Whisper Small Japanese
Apache-2.0
このモデルはopenai/whisper-smallをファインチューニングした日本語音声認識モデルで、日本語音声からテキストへの変換タスクをサポートします。
音声認識 Transformers 日本語
W
Ivydata
356
5
Stt De Fastconformer Hybrid Large Pc
これはFastConformerアーキテクチャに基づくドイツ語自動音声認識モデルで、トランスフォーマーとCTCのハイブリッド訓練方式を採用し、パラメータ規模は約115Mです。
音声認識 ドイツ語
S
nvidia
1,017
4
T5 Small Korean Summarization
T5アーキテクチャに基づく韓国語テキスト要約モデルで、韓国語テキストに特化して最適化されており、簡潔で正確な要約を生成できます。
テキスト生成 Transformers 韓国語
T
eenzeenee
123
3
Reward Model Deberta V3 Large
MIT
この報酬モデルは、与えられた質問に対して、人間の評価者がどの生成された回答をより良いと判断するかを予測できるように訓練されています。
大規模言語モデル Transformers 英語
R
OpenAssistant
796
23
T5 Base Korean Summarization
これはT5アーキテクチャに基づく韓国語テキスト要約モデルで、韓国語テキスト要約タスク用に設計され、paust/pko-t5-baseモデルを微調整して複数の韓国語データセットで訓練されました。
テキスト生成 Transformers 韓国語
T
eenzeenee
148.32k
25
All MiniLM L6 V2 128dim
Apache-2.0
これはMiniLMアーキテクチャに基づく文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングし、意味検索や文類似度計算などのタスクに適しています。
テキスト埋め込み 英語
A
freedomfrier
1,377
0
Whisper Large V2 Mn 13
Apache-2.0
OpenAIのwhisper-large-v2モデルをモンゴル語データセットでファインチューニングした音声認識モデルで、モンゴル語の自動音声認識タスクをサポートします。
音声認識 Transformers その他
W
bayartsogt
161
6
Bert Large Portuguese Cased Sts
BERTimbau大規模モデルをファインチューニングしたポルトガル語意味的テキスト類似性モデルで、文を1024次元ベクトル空間にマッピング可能
テキスト埋め込み Transformers その他
B
rufimelo
633
8
Sbert All MiniLM L6 With Pooler
Apache-2.0
sentence-transformersベースのONNXモデルで、テキストを384次元ベクトル空間にマッピング可能。意味検索やクラスタリングタスクに適しています。
テキスト埋め込み 英語
S
optimum
3,867
6
Densenet121 Res224 Chex
Apache-2.0
DenseNet121アーキテクチャの事前学習済みモデルで、胸部X線画像分類タスク専用に設計されており、18の出力目標を持ちます。
画像分類 Transformers
D
torchxrayvision
25
1
Stt En Conformer Transducer Xlarge
これはNVIDIAが開発した自動音声認識(ASR)モデルで、Conformer-Transducerアーキテクチャに基づき、約6億のパラメータを持ち、英語音声の転写専用に設計されています。
音声認識 英語
S
nvidia
496
54
Wav2vec2 Large Xlsr 53 Th Cv8 Deepcut
Apache-2.0
このモデルはCommonVoice V8データセットで訓練されたタイ語自動音声認識モデルで、deepcut分かち書きと言語モデルを組み合わせて認識精度を向上させています。
音声認識 Transformers その他
W
wannaphong
504
5
Deberta V3 Large Mnli Fever Anli Ling Wanli
MIT
DeBERTa-v3-largeをファインチューニングしたNLIモデルで、複数のNLIデータセットで最先端の性能を達成
テキスト分類 Transformers 英語
D
MoritzLaurer
312.01k
95
All MiniLM L6 V2
Apache-2.0
これはsentence-transformersベースの文埋め込みモデルで、テキストを384次元のベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み 英語
A
obrizum
1,647
5
Wav2vec2 Large Xlsr Galician
ガリシア語向けに最適化された自動音声認識モデル、wav2vec2-large-xlsr-53を基にファインチューニング、WER指標7.12
音声認識 Transformers
W
ifrz
9,330
1
Stt En Conformer Ctc Large
これはConformerアーキテクチャに基づく大規模な自動音声認識(ASR)モデルで、英語音声の文字起こしをサポートし、CTC損失関数を使用して訓練されています。
音声認識 英語
S
nvidia
3,740
24
Romanian Wav2vec2
Apache-2.0
facebook/wav2vec2-xls-r-300mをファインチューニングしたルーマニア語音声認識モデルで、Common Voice 8.0とルーマニア語音声合成データセットで訓練され、HuggingFace Robust Speech Challengeでルーマニア語音声認識1位を獲得しました。
音声認識 Transformers その他
R
gigant
88.90k
6
Wav2vec2 Large Xlsr 53 Greek
Apache-2.0
facebook/wav2vec2-large-xlsr-53モデルをベースに微調整されたギリシャ語音声認識モデルで、16kHzサンプリングレートの音声入力に対応しています。
音声認識 Transformers その他
W
vasilis
25
0
All Mpnet Base V2
MIT
これはMPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングでき、意味検索や文類似度タスクに適しています。
テキスト埋め込み 英語
A
navteca
14
1
Dpt Large
Apache-2.0
ビジュアルトランスフォーマー(ViT)に基づく単眼深度推定モデルで、140万枚の画像で訓練され、ゼロショット深度予測タスクに適しています。
3Dビジョン Transformers
D
Intel
364.62k
187
W2v Hf Jsut Xlsr53
Apache-2.0
facebook/wav2vec2-large-xlsr-53モデルをベースに、Common VoiceとJSUTデータセットを使用して日本語にファインチューニングした自動音声認識モデルです。
音声認識 Transformers 日本語
W
qqpann
16
1
Wav2vec2 Xls R 300m Cv7 Turkish
facebook/wav2vec2-xls-r-300mを基にトルコ語でファインチューニングした自動音声認識モデル
音声認識 Transformers その他
W
mpoyraz
685.31k
11
Camembert Squadfr Fquad Piaf Answer Extraction
MIT
このモデルはCamemBERT-baseをファインチューニングしたもので、フランス語テキストからの回答抽出タスク専用に設計されており、SquadFR、FQuAD、PIAFデータセットで訓練されています。
質問応答システム Transformers フランス語
C
lincoln
16
0
Sbert Roberta Large Anli Mnli Snli
RoBERTa-largeベースの文変換モデルで、文の類似性タスク向けに設計され、ANLI、MNLI、SNLIデータセットで訓練
テキスト埋め込み Transformers 英語
S
usc-isi
38
2
T5 Base Question Generator
t5-baseに基づく質問生成モデルで、答えとコンテキストを入力すると、対応する質問を出力します。
質問応答システム Transformers
T
iarfmoose
122.74k
57
Wav2vec2 Xls R 1b Polish
Apache-2.0
これはXLS-R 10億パラメータモデルを微調整したポーランド語自動音声認識(ASR)モデルで、Common Voice 8.0などのデータセットで訓練され、16kHzサンプリングレートの音声入力をサポートします。
音声認識 Transformers その他
W
jonatasgrosman
212
0
Wav2vec2 Xls R 300m Cs 250
Apache-2.0
これはfacebook/wav2vec2-xls-r-300mをチェコ語データセットでファインチューニングした自動音声認識モデルで、16kHzサンプリングレートの音声入力をサポートします。
音声認識 Transformers その他
W
comodoro
248.66k
2
Wav2vec2 Large Xlsr 53 Sw
Apache-2.0
XLSR - 53大規模モデルを基に微調整されたスワヒリ語自動音声認識モデルで、16kHzサンプリングレートの音声入力をサポートします。
音声認識 その他
W
alokmatta
158
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase