Bart Large Teaser De V2
BARTアーキテクチャに基づく大規模ドイツ語テキスト処理モデル、様々な自然言語処理タスクに適用可能
大規模言語モデル
Transformers

B
bettertextapp
123
0
Lightblue Reranker 0.5 Cont Filt Gguf
Qwen2.5-0.5B-Instructをファインチューニングしたテキストランキングモデルで、情報検索と関連性ランキングタスクに適しています
大規模言語モデル
L
RichardErkhov
2,130
0
Ppo Tldr
EleutherAI_pythia-1b-dedupedモデルをファインチューニングしたバージョンで、簡潔な要約を生成するために使用されます
大規模言語モデル
Transformers

P
vwxyzjn
15
1
Donut 240202
MIT
Yazawa/donut-base-sroieをファインチューニングしたドキュメント理解モデルで、構造化ドキュメント情報抽出タスクに適しています
文字認識
Transformers

D
Yazawa
93
0
Quan 1.8b Chat
その他
英語・ベトナム語バイリンガルデータでファインチューニングされたQwen-1.8Bモデル、ChatMLフォーマットのプロンプトテンプレートを採用
大規模言語モデル
Transformers

Q
qnguyen3
31
11
Wav2vec2 Xls R 300m Bp1 Es Eu
Apache-2.0
facebook/wav2vec2-xls-r-300mをファインチューニングしたバスク語自動音声認識モデルで、バスク議会データセットで3.67%の単語誤り率を達成
音声認識
Transformers

W
gttsehu
49
1
Sikong Llama 7b Chinese
Linly-Chinese-LLaMA-7b-hfをカスタムデータセットでファインチューニングしたモデル
大規模言語モデル
Transformers

S
SikongSphere
55
4
Kullm Polyglot 12.8b V2
Apache-2.0
EleutherAI/polyglot-ko-12.8bを基にしたKULLM v2のファインチューニング版で、韓国語をサポートする多言語大規模言語モデル
大規模言語モデル
Transformers 韓国語

K
nlpai-lab
1,901
52
Bart Large Japanese
日本語ウィキペディアで事前学習された日本語BART大規模モデルで、テキスト生成や自然言語処理タスクに適しています。
大規模言語モデル
Transformers 日本語

B
ku-nlp
206
10
Bart Base Japanese
これは日本語ウィキペディアで事前学習された日本語BARTベースモデルで、自然言語処理タスクに適しています。
大規模言語モデル
Transformers 日本語

B
ku-nlp
181
10
Whisper Large V2 Ko
Apache-2.0
OpenAI Whisper-large-v2をファインチューニングした韓国語自動音声認識(ASR)モデルで、韓国語データセットで優れた性能を発揮
音声認識
Transformers 韓国語

W
byoussef
94
22
Whisper Large V2 Bn
Apache-2.0
OpenAI Whisper Large-v2モデルをベンガル語音声データセットでファインチューニングした自動音声認識(ASR)モデル
音声認識
Transformers その他

W
anuragshas
319
6
Whisper Large V2 Ta
Apache-2.0
OpenAI Whisper Large-v2モデルをファインチューニングしたタミル語自動音声認識(ASR)モデルで、Common Voice 11.0タミル語テストセットで8.45%の単語誤り率を達成
音声認識
Transformers その他

W
anuragshas
15
1
Whisper Large V2 Hi V3
Apache-2.0
OpenAI Whisper Large-v2モデルをファインチューニングしたヒンディー語音声認識モデルで、Common Voice 11.0ヒンディー語テストセットで11.3%の単語誤り率を達成
音声認識
Transformers その他

W
anuragshas
21
1
Albert Xxl V2 Finetuned Squad
Apache-2.0
SQuADデータセットでファインチューニングされたALBERT-xxlarge-v2モデルに基づく質問応答モデル
質問応答システム
Transformers

A
anas-awadalla
15
1
Wav2vec2 Common Voice Tr Demo Dist
Apache-2.0
このモデルは、facebook/wav2vec2-large-xlsr-53をCOMMON_VOICE - TRトルコ語データセットでファインチューニングした自動音声認識(ASR)モデルで、評価セットで0.3242の単語誤り率を達成しました。
音声認識
Transformers その他

W
cromz22
26
0
Xtreme S Xlsr 300m Voxpopuli En
Apache-2.0
このモデルは、facebook/wav2vec2-xls-r-300mをGOOGLE/XTREME_S - VOXPOPULI.ENデータセットでファインチューニングした音声認識モデルで、英語音声からテキストへの変換タスクをサポートします。
音声認識
Transformers 英語

X
anton-l
28
0
Wav2vec2 Base MIR ST500 ASR 109
Apache-2.0
facebook/wav2vec2-baseをベースにMIR_ST500データセットでファインチューニングした自動音声認識モデル
音声認識
Transformers

W
gary109
15
0
Wav2vec2 Common Voice Accents Scotland
Apache-2.0
このモデルは、facebook/wav2vec2-xls-r-300mをcommon_voiceデータセットでファインチューニングしたバージョンで、スコットランド訛りの音声認識に特化しています。
音声認識
Transformers

W
willcai
19
0
Mt5 Base Turkish Summarization
Apache-2.0
google/mt5-baseをmlsum/tuデータセットでファインチューニングしたトルコ語テキスト要約モデル
テキスト生成
Transformers

M
mukayese
249
6
Transformer Turkish Summarization
MIT
これはトルコ語テキスト要約タスクに特化したTransformerモデルで、Mukayeseプロジェクトによって開発されました。
テキスト生成
Transformers その他

T
mukayese
42
5
Xtreme S Xlsr Minds14
Apache-2.0
このモデルはfacebook/wav2vec2-xls-r-300mをファインチューニングして得られた音声処理モデルで、評価セットで高いF1値と精度を達成しました。
音声認識
Transformers

X
anton-l
25
1
Xtreme S Xlsr Minds14 Fr
Apache-2.0
facebook/wav2vec2-xls-r-300mをベースにGOOGLE/XTREME_S - MINDS14.FR-FRデータセットでファインチューニングした自動音声認識モデル
音声認識
Transformers

X
anton-l
41
1
Hello 2b
このモデルは、facebook/wav2vec2-xls-r-2bをCOMMON_VOICE - TRトルコ語データセットでファインチューニングした自動音声認識(ASR)モデルです
音声認識
Transformers その他

H
patrickvonplaten
27
0
Fb Vindata Vi Large
Apache-2.0
このモデルは、facebook/wav2vec2-large-xlsr-53をPHONGDTD/VINDATAVLSP - NAデータセットでファインチューニングしたベトナム語自動音声認識モデルです
音声認識
Transformers

F
phongdtd
29
0
Albert Xlarge V2 Squad V2
ALBERT-xlarge-v2モデルをSQuAD V2質問応答データセットでファインチューニングした質問応答システム
質問応答システム
Transformers

A
ktrapeznikov
104
2
Wav2vec2 2 Bart Base
LibriSpeech ASR cleanデータセットでファインチューニングされたwav2vec2-baseとbart-baseに基づく音声認識モデル
音声認識
Transformers

W
patrickvonplaten
493
5
Wav2vec Tr Lite AG
Apache-2.0
これはXLSR Wav2Vec2アーキテクチャに基づくトルコ語自動音声認識モデルで、汎用音声トルコ語データセットでトレーニングされています
音声認識 その他
W
emre
26
0
Wav2vec2 Common Voice Ab Demo
Apache-2.0
facebook/wav2vec2-large-xlsr-53モデルをCOMMON_VOICE - ABデータセットでファインチューニングした音声認識モデル
音声認識
Transformers その他

W
patrickvonplaten
18
0
Wavlm Libri Clean 100h Base Plus
microsoft/wavlm-base-plusを基にLIBRISPEECH_ASR - CLEANデータセットでファインチューニングした自動音声認識モデル
音声認識
Transformers

W
patrickvonplaten
126.17k
3
Wavlm Vindata Demo Dist
microsoft/wavlm-baseをベトナム語データセットでファインチューニングした自動音声認識モデル
音声認識
Transformers

W
phongdtd
17
0
Wav2vec2 Xls R 100m Common Voice Tr Ft
Apache-2.0
このモデルは、facebook/wav2vec2-xls-r-100mをCOMMON_VOICE - TRトルコ語データセットでファインチューニングした自動音声認識(ASR)モデルです。
音声認識
Transformers その他

W
patrickvonplaten
16
0
Wavlm Libri Clean 100h Base
microsoft/wavlm-baseをLIBRISPEECH_ASR - CLEANデータセットでファインチューニングした自動音声認識モデル
音声認識
Transformers

W
patrickvonplaten
6,515
1
Wavlm Libri Clean 100h Large
microsoft/wavlm-largeを基にLIBRISPEECH_ASR - CLEANデータセットで微調整した自動音声認識モデル
音声認識
Transformers

W
patrickvonplaten
8,171
3
Wav2vec2 Librispeech Clean 100h Demo Dist
Apache-2.0
facebook/wav2vec2-large-lv60をベースにLIBRISPEECH_ASR-CLEANデータセットでファインチューニングした音声認識モデル
音声認識
Transformers

W
patrickvonplaten
15
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98