Indicbart Mr Test
IndicBART-mr-testはai4bharat/IndicBARTモデルを未知のデータセットでファインチューニングしたバージョンで、主にテキスト生成タスクに使用され、マラーティー語をサポートします。
大規模言語モデル
Transformers

I
AmaanDhamaskar
47
1
Rut5 Base Headline Generation
T5アーキテクチャに基づくロシア語ニュース見出し生成モデルで、短いニューステキストに最適化されており、6〜11語の要約型見出しを生成可能
テキスト生成
Transformers その他

R
wanderer-msk
65
1
Flan T5 Base Samsum
Apache-2.0
このモデルはgoogle/flan-t5-baseをsamsum対話要約データセットでファインチューニングしたバージョンで、対話要約タスク専用に設計されています。
テキスト生成
Transformers

F
sharmax-vikas
26
0
Mt5 Vi News Summarization
Apache-2.0
google/mt5-smallをベースにベトナムニュース要約データセットで微調整したテキスト要約モデルで、ベトナム語ニュースの自動要約生成をサポート
テキスト生成
Transformers その他

M
ntkhoi
354
0
Saved Model Git Base
MIT
microsoft/git-baseを画像フォルダデータセットでファインチューニングした視覚言語モデルで、主に画像キャプション生成タスクに使用されます
画像生成テキスト
Transformers その他

S
holipori
13
0
Autotrain Finetuned Distillbart 3664997842
これはAutoTrainプラットフォームでファインチューニングされたDistillBARTモデルで、要約生成タスク専用です。
テキスト生成
Transformers その他

A
zaib32
18
0
Arabart Finetuned Wiki Ar
Apache-2.0
AraBARTをアラビア語ウィキデータセットで微調整した翻訳モデル
機械翻訳
Transformers

A
Jezia
382
0
Mt5 Multilingual XLSum Finetuned Fa
このモデルはmT5_multilingual_XLSumをペルシャ語要約データセットpn_summaryでファインチューニングした生成的要約モデルです
テキスト生成
Transformers その他

M
ahmeddbahaa
51
2
Bart Base Cnn R2 19.4 D35 Hybrid
Apache-2.0
これはプルーニング最適化されたBART-baseモデルで、要約生成タスク向けに設計されており、元のモデルの53%の重みを保持しています。
テキスト生成
Transformers 英語

B
echarlaix
20
0
Distilbart Cnn 12 6
Apache-2.0
DistilBARTはBARTモデルの蒸留バージョンで、テキスト要約タスクに特化して最適化されており、高い性能を維持しながら推論速度を大幅に向上させています。
テキスト生成 英語
D
sshleifer
783.96k
278
Distilbart Xsum 6 6
Apache-2.0
DistilBARTはBARTモデルの蒸留版で、テキスト要約タスクに特化しており、高い性能を維持しながらモデルサイズと推論時間を大幅に削減します。
テキスト生成 英語
D
sshleifer
147
0
Bart German
Apache-2.0
facebook/bart-baseをmlsum deデータセットでファインチューニングしたドイツ語要約生成モデル
テキスト生成
Transformers ドイツ語

B
Shahm
151
11
Bart Base Cnn R2 18.7 D23 Hybrid
Apache-2.0
これは剪枝最適化されたBART-baseモデルで、CNN/DailyMailデータセットに特化して微調整され、要約生成タスクに使用されます。
テキスト生成
Transformers 英語

B
echarlaix
18
0
Distilbart Xsum 12 6
Apache-2.0
DistilBARTはBARTモデルの蒸留版で、テキスト要約タスクに特化しており、高い性能を維持しながらモデルサイズと推論時間を大幅に削減します。
テキスト生成 英語
D
sshleifer
1,446
6
Bart Large Cnn Finetuned Pubmed
MIT
BART-large-cnnを医学文献要約データセットで微調整したテキスト生成モデルで、医学文献要約生成タスクに特化しています。
テキスト生成
Transformers

B
Kevincp560
126
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98