Whisper Large V3 Vaani Hindi
Apache-2.0
OpenAIのWhisper-Large-V3モデルをファインチューニングしたヒンディー語音声認識モデルで、約718時間のヒンディー語音声データで訓練されています
音声認識
Safetensors
W
ARTPARK-IISc
15.55k
3
Deqa Score Mix3
MIT
DeQA-Score-Mix3はMAGAer13/mplug-owl2-llama2-7bベースモデルをファインチューニングしたリファレンス不要の画像品質評価モデルで、複数のデータセットで優れた性能を発揮します。
画像生成テキスト
Transformers 英語

D
zhiyuanyou
4,177
2
Vi Whisper Large V3 Turbo V1
ベトナム語自動音声認識(ASR)タスク向けに最適化されたWhisper-V3-Turboモデル、複数のベトナム語データセットでファインチューニング済み
音声認識
Transformers その他

V
suzii
182
7
Vit Base Patch16 224 Distilgpt2
Apache-2.0
DistilViTは、視覚Transformer(ViT)と蒸留版GPT-2に基づく画像キャプション生成モデルで、画像をテキスト記述に変換できます。
画像生成テキスト
Transformers

V
tarekziade
17
0
Kobart Summary V3
kobartモデルをファインチューニングした韓国語テキスト要約モデルで、より多くの短文を含む要約テキストを生成します
テキスト生成
Transformers 韓国語

K
EbanLee
5,139
17
Ptt5 Base Summ
MIT
PTT5をファインチューニングしたブラジルポルトガル語の抽象要約生成モデルで、ニュースなどのテキストから簡潔な要約を生成できます。
テキスト生成
Transformers その他

P
recogna-nlp
853
0
Marian Finetuned Multidataset Kin To En
Apache-2.0
このモデルはHelsinki-NLP/opus-mt-rw-enをファインチューニングしたキニアルワンダ語(Kinyarwanda)から英語への機械翻訳モデルです
機械翻訳
Transformers

M
RogerB
64
0
Pegasus Indonesian Base Finetune
Apache-2.0
このモデルはPEGASUSアーキテクチャに基づくインドネシア語テキスト要約モデルで、Indosum、Liputan6、XLSumデータセットでファインチューニングされており、ニュース記事の要約タスクに適しています。
テキスト生成
Transformers その他

P
thonyyy
172
2
Flan T5 11b Summarizer Filtered
Bsd-3-clause
これはgoogle/flan-t5-xxlモデルを複数の要約データセットでファインチューニングしたバージョンで、学術と汎用シナリオに適した多機能要約ジェネレーターを目指しています。
テキスト生成
Transformers 英語

F
jordiclive
492
16
Flan T5 3b Summarizer
Bsd-3-clause
3Bパラメータのgoogle/flan-t5-xlモデルを複数の要約データセットでファインチューニングした汎用要約ジェネレーターで、学術および汎用シーンに適しています。
テキスト生成
Transformers 英語

F
jordiclive
231
36
Ptt5 Base Summ Cstnews
MIT
PTT5をファインチューニングしたブラジルポルトガル語テキスト抽象要約生成モデル
テキスト生成
Transformers その他

P
recogna-nlp
47
8
Ptt5 Base Summ Temario
MIT
PTT5をファインチューニングしたモデルで、ブラジルポルトガル語テキストの抽象的要約を生成するために使用されます。
テキスト生成
Transformers その他

P
recogna-nlp
159
1
Ptt5 Base Summ Xlsum
MIT
PTT5をファインチューニングしたブラジルポルトガル語テキスト抽象要約生成モデルで、ニュースなど様々なテキストの要約生成をサポートします。
テキスト生成
Transformers その他

P
recogna-nlp
3,754
16
Ptt5 Base Summ Wikilingua
MIT
PTT5をファインチューニングしたブラジルポルトガル語テキスト抽象要約生成モデルで、様々な要約生成タスクに対応しています。
テキスト生成
Transformers その他

P
recogna-nlp
38
4
Legal BERTimbau Sts Large
これはBERTimbau largeバージョンを基にしたポルトガル法律分野専用モデルで、セマンティックテキスト類似度タスク向けに最適化されています。
テキスト埋め込み
Transformers その他

L
rufimelo
37
2
Mbart Large Cc25 Cnn Dailymail Xsum Nl
mbart-large-cc25をファインチューニングしたオランダ語ニュース要約生成モデル、CNN/DailyMailとXSum形式の要約タスクに対応
テキスト生成
Transformers その他

M
ml6team
129
4
Rut5 Base Absum
MIT
これはT5アーキテクチャに基づき、複数のデータセットでファインチューニングされたロシア語の抽象的要約生成モデルで、簡潔で正確なテキスト要約を生成できます。
テキスト生成
Transformers その他

R
cointegrated
1,135
27
Wav2vec2 Large Xlsr Malayalam
Apache-2.0
facebook/wav2vec2-large-xlsr-53を基にマラヤーラム語でファインチューニングした音声認識モデルで、16kHzサンプリングレートの音声入力をサポートします。
音声認識 その他
W
gvs
29.57k
5
Albert Fa Zwnj Base V2 Ner
ペルシャ語固有表現認識タスク向けにファインチューニングされたAlbertモデル、10種類のエンティティタイプ認識をサポート
シーケンスラベリング
Transformers その他

A
HooshvareLab
57
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98