Flan T5 Base Peft Dialogue Summary Before
Apache-2.0
google/flan-t5-baseモデルを基に、対話要約タスク向けにPEFT手法でパラメータ効率的にファインチューニングしたバージョン
テキスト生成
TensorBoard 英語

F
agoor97
20
0
Bodo Bart Large Summ
Apache-2.0
このモデルはfacebook/bart-largeをボド語の法律要約データセットでファインチューニングしたテキスト要約生成モデルです
テキスト生成
Transformers

B
Mwnthai
19
1
Mt5 Small Finetuned Amazon En Es
Apache-2.0
google/mt5-smallモデルを未知のデータセットで微調整したバージョンで、主に英語からスペイン語への要約生成タスクに使用されます。
機械翻訳
Transformers

M
NagaRamya
13
0
Mt5 Small Finetuned Amazon En Es
Apache-2.0
google/mt5-smallをアマゾンの英語-スペイン語データセットでファインチューニングした要約生成モデルで、英語からスペイン語へのテキスト要約タスクをサポートします。
機械翻訳
Transformers

M
QHWU1228
17
0
T5 Small Common Corpus Topic Batch
Apache-2.0
T5-smallアーキテクチャをファインチューニングしたテキスト処理モデルで、特定タスクのテキスト生成と変換に特化
大規模言語モデル
Transformers

T
Pclanglais
21
2
Text Summarization Cnn
Apache-2.0
Falconsai/text_summarizationをファインチューニングしたテキスト要約生成モデルで、長文から重要な情報を抽出して簡潔な要約を生成できます。
テキスト生成
Transformers

T
vmkhoa2000
125
0
Mt5 Small Finetuned Cnn Dailymail En Nlp Course Chapter7 Section4
Apache-2.0
google/mt5-smallをファインチューニングした要約生成モデルで、CNN/DailyMailデータセットで訓練され、英語テキストの要約タスクに適しています。
テキスト生成
Transformers

M
BanUrsus
68
0
Rut5 Base Sum Gazeta Finetuned Week Gpt
Apache-2.0
このモデルはIlyaGusev/rut5_base_sum_gazetaをファインチューニングしたバージョンで、主にロシア語テキスト要約生成タスクに使用されます。
テキスト生成
Transformers

R
Natet
16
0
Autotrain Stripped Data Training Biobart 90151144184
これはAutoTrainプラットフォームでトレーニングされた要約生成モデルで、BioBARTアーキテクチャに基づいており、テキスト要約タスクに適しています。
テキスト生成
Transformers その他

A
gpadam
27
0
T5 Vietnamese Summarization
T5アーキテクチャに基づくベトナム語テキスト要約生成モデルで、未知のデータセットでファインチューニングされており、簡潔なベトナム語要約の生成をサポートします。
テキスト生成
Transformers その他

T
pengold
510
3
Autotrain Financial Convo Summary 89094143854
これはAutoTrainでトレーニングされた金融対話要約生成モデルで、金融対話から重要な情報を抽出し簡潔な要約を生成するために特別に設計されています。
テキスト生成
Transformers その他

A
jsonfin17
173
3
Mbart Large 50 En Es Translation Lr 1e 05 Weight Decay 0.01
MIT
facebook/mbart-large-50をファインチューニングした英語からスペイン語への翻訳モデルで、評価セットで45.09のBLEUスコアを達成しました。
機械翻訳
Transformers

M
DrishtiSharma
16
0
Sinmt5 Tuned
GoogleのmT5モデルを未知のデータセットでファインチューニングした要約生成モデルで、多言語テキスト要約タスクをサポート
テキスト生成
Transformers

S
Hamza-Ziyard
53
0
H2 Keywordextractor
これはAutoTrainプラットフォームでトレーニングされた要約生成モデルで、金融分野のテキスト要約タスクに適しています。
テキスト生成
Transformers その他

H
transformer3
6,592
47
Codet5 Base Generate Docstrings For Python Condensed
Apache-2.0
このモデルはSalesforce/codet5-baseをファインチューニングしたバージョンで、Python関数のドキュメント文字列を生成するために使用されます。
テキスト生成
Transformers 英語

C
DunnBC22
17
2
Codet5 Small Generate Docstrings For Python Condensed
Apache-2.0
Salesforce/codet5-smallを微調整したモデルで、Python関数のドキュメント文字列を生成するために使用されます
テキスト生成
Transformers 英語

C
DunnBC22
20
4
T5 Pegasus Ch Ans
これはAutoTrainプラットフォームでトレーニングされたT5-Pegasusアーキテクチャの中国語要約生成モデルで、テキストからキー情報を抽出して要約を生成するのに適しています。
テキスト生成
Transformers 中国語

T
lambdarw
13
0
Flan T5 Large Finetuned Openai Summarize From Feedback
Apache-2.0
google/flan - t5 - largeモデルをベースに、フィードバックに基づく要約データセットで微調整したテキスト要約モデル
テキスト生成
Transformers

F
mrm8488
50
6
Flan T5 Small Finetuned Openai Summarize From Feedback
Apache-2.0
このモデルはsummarize_from_feedbackデータセットを使用してgoogle/flan-t5-smallをファインチューニングしたバージョンで、主にテキスト要約タスクに使用されます。
テキスト生成
Transformers

F
mrm8488
33
9
Mt5 Summarize Japanese
Apache-2.0
google/mt5-smallを基にファインチューニングした日本語要約生成モデルで、ニュース記事の要約生成に特化
テキスト生成
Transformers 日本語

M
tsmatz
552
19
TGL 3
Apache-2.0
TGL-3はt5-smallをファインチューニングした要約生成モデルで、23000件のopenreview.net要約データで訓練され、学術テキスト要約生成タスクをサポートします。
テキスト生成
Transformers

T
awesometeng
13
1
T5 Small Finetuned Cnn News
Apache-2.0
T5-smallモデルをCNN/DailyMailニュースデータセットでファインチューニングしたテキスト要約モデルで、ニュース記事の簡潔な要約を生成できます。
テキスト生成
Transformers

T
shivaniNK8
25
0
T5 Small Finetuned Cnn V2
Apache-2.0
T5-smallモデルをcnn_dailymailデータセットでファインチューニングしたテキスト要約生成モデル
テキスト生成
Transformers

T
ubikpt
20
1
T5 Small Finetuned Cnn
Apache-2.0
T5-smallアーキテクチャに基づき、cnn_dailymailデータセットで微調整されたテキスト要約生成モデルで、ニュース要約生成タスクに特化しています。
テキスト生成
Transformers

T
ubikpt
55
0
Mt5 Base Finetuned Fa
Apache-2.0
google/mt5-baseをpn_summaryデータセットでファインチューニングしたペルシャ語要約生成モデル
テキスト生成
Transformers その他

M
ahmeddbahaa
20
1
Arat5 Base Finetune Ar Xlsum
AraT5-baseモデルをアラビア語要約データセットxlsumでファインチューニングした抽象的要約モデル
テキスト生成
Transformers アラビア語

A
ahmeddbahaa
15
0
Mt5 Multilingual XLSum Finetuned Fa Finetuned Ar
mT5ベースの多言語要約生成モデルで、XLSumデータセットでアラビア語向けに特別にファインチューニングされています
テキスト生成
Transformers アラビア語

M
ahmeddbahaa
13
1
Mt5 Multilingual XLSum Sumarizacao PTBR
このモデルはmT5_multilingual_XLSumを未知のデータセットでファインチューニングして得られたポルトガル語テキスト要約モデルです
テキスト生成
Transformers

M
GiordanoB
23
2
Mt5 Small Finetuned Amazon En Es
Apache-2.0
google/mt5-smallモデルをアマゾンデータセットでファインチューニングした英西翻訳モデルで、テキスト要約タスクに特化
機械翻訳
Transformers

M
spasis
28
0
T5 Small Finetuned Contradiction
Apache-2.0
T5-smallアーキテクチャをSNLIデータセットでファインチューニングしたテキスト生成モデルで、矛盾関係の識別と要約生成タスクに特化
テキスト生成
Transformers

T
domenicrosati
21
2
Arabart Finetuned Ar
Apache-2.0
AraBARTモデルをアラビア語要約データセットxlsumでファインチューニングしたテキスト要約モデル
テキスト生成
Transformers

A
ahmeddbahaa
40
0
Mt5 Small Finetuned Amazon En Zh TW
Apache-2.0
このモデルはgoogle/mt5-smallをAmazonデータセットでファインチューニングしたテキスト要約モデルで、英語から繁体字中国語への要約生成タスクをサポートします。
テキスト生成
Transformers

M
peterhsu
28
0
Distilbart Cnn 12 6 Finetuned Weaksup 1000
Apache-2.0
distilbart-cnn-12-6モデルを微調整したテキスト要約生成モデルで、弱教師ありデータで1000ステップ訓練
テキスト生成
Transformers

D
cammy
79
1
Bart Large Finetuned Xsum
MIT
BART-largeアーキテクチャをベースにwsj_marketsデータセットでファインチューニングされたテキスト生成モデルで、要約生成タスクに優れています
テキスト生成
Transformers

B
aristotletan
14
0
Distilbart Cnn 12 3
Apache-2.0
DistilBARTはBARTモデルの蒸留バージョンで、テキスト要約タスクに特化しており、高い性能を維持しながらモデルサイズと推論時間を大幅に削減します。
テキスト生成 英語
D
sshleifer
145
4
Distilbart Xsum 12 1
Apache-2.0
DistilBARTはBARTモデルの蒸留版で、テキスト要約生成タスクに特化しており、高い性能を維持しながらモデルのパラメータ数と推論時間を大幅に削減します。
テキスト生成 英語
D
sshleifer
396
7
Mt5 Small Finetuned Arxiv Cs Finetuned Arxiv Cs Full
Apache-2.0
このモデルは、コンピュータサイエンス分野のarXiv論文データセットでファインチューニングされたmT5-smallベースのテキスト要約生成モデルで、技術的な内容の簡潔な要約を生成するのに優れています。
テキスト生成
Transformers

M
shamikbose89
16
5
Distilbart Cnn 6 6
Apache-2.0
DistilBARTはBARTモデルの蒸留版で、テキスト要約タスクに最適化されており、高い性能を維持しながら推論速度を大幅に向上させます。
テキスト生成 英語
D
sshleifer
48.17k
31
Distilbart Xsum 12 3
Apache-2.0
DistilBARTはBARTモデルの蒸留バージョンで、要約生成タスクに特化して最適化されており、高い性能を維持しながらモデルのパラメータ数と推論時間を大幅に削減します。
テキスト生成 英語
D
sshleifer
579
11
Bert2bert Shared Spanish Finetuned Summarization
これはスペイン語BERTモデル(BETO)をファインチューニングしたテキスト要約モデルで、スペイン語テキストの自動要約生成に特化しています。
テキスト生成
Transformers スペイン語

B
mrm8488
3,185
31
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98