Flan T5 Base Peft Dialogue Summary Before
Apache-2.0
基於google/flan-t5-base模型在對話摘要任務上的微調版本,使用PEFT方法進行參數高效微調
文本生成
TensorBoard 英語

F
agoor97
20
0
Bodo Bart Large Summ
Apache-2.0
該模型是基於facebook/bart-large在Bodo法律摘要數據集上微調的文本摘要生成模型
文本生成
Transformers

B
Mwnthai
19
1
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基於google/mt5-small模型在未知數據集上微調的版本,主要用於英語到西班牙語的摘要生成任務。
機器翻譯
Transformers

M
NagaRamya
13
0
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基於google/mt5-small在亞馬遜英西數據集上微調的摘要生成模型,支持英語到西班牙語的文本摘要任務。
機器翻譯
Transformers

M
QHWU1228
17
0
T5 Small Common Corpus Topic Batch
Apache-2.0
基於T5-small架構微調的文本處理模型,專注於特定任務的文本生成與轉換
大型語言模型
Transformers

T
Pclanglais
21
2
Text Summarization Cnn
Apache-2.0
基於Falconsai/text_summarization微調的文本摘要生成模型,支持從長文本中提取關鍵信息生成簡潔摘要。
文本生成
Transformers

T
vmkhoa2000
125
0
Mt5 Small Finetuned Cnn Dailymail En Nlp Course Chapter7 Section4
Apache-2.0
基於google/mt5-small微調的摘要生成模型,在CNN/DailyMail數據集上訓練,適用於英文文本摘要任務。
文本生成
Transformers

M
BanUrsus
68
0
Rut5 Base Sum Gazeta Finetuned Week Gpt
Apache-2.0
該模型是基於IlyaGusev/rut5_base_sum_gazeta微調的版本,主要用於俄語文本摘要生成任務。
文本生成
Transformers

R
Natet
16
0
Autotrain Stripped Data Training Biobart 90151144184
這是一個通過AutoTrain平臺訓練的摘要生成模型,基於BioBART架構,適用於文本摘要任務。
文本生成
Transformers 其他

A
gpadam
27
0
T5 Vietnamese Summarization
基於T5架構的越南語文本摘要生成模型,在未知數據集上微調,支持生成簡潔的越南語摘要。
文本生成
Transformers 其他

T
pengold
510
3
Autotrain Financial Convo Summary 89094143854
這是一個基於AutoTrain訓練的金融對話摘要生成模型,專門用於從金融對話中提取關鍵信息並生成簡潔摘要。
文本生成
Transformers 其他

A
jsonfin17
173
3
Mbart Large 50 En Es Translation Lr 1e 05 Weight Decay 0.01
MIT
基於facebook/mbart-large-50微調的英語到西班牙語翻譯模型,在評估集上取得了45.09的BLEU分數。
機器翻譯
Transformers

M
DrishtiSharma
16
0
Sinmt5 Tuned
基於谷歌mT5模型在未知數據集上微調的摘要生成模型,支持多語言文本摘要任務
文本生成
Transformers

S
Hamza-Ziyard
53
0
H2 Keywordextractor
這是一個通過AutoTrain平臺訓練的摘要生成模型,適用於金融領域文本的摘要生成任務。
文本生成
Transformers 其他

H
transformer3
6,592
47
Codet5 Base Generate Docstrings For Python Condensed
Apache-2.0
該模型是基於Salesforce/codet5-base微調的版本,用於為Python函數生成文檔字符串。
文本生成
Transformers 英語

C
DunnBC22
17
2
Codet5 Small Generate Docstrings For Python Condensed
Apache-2.0
基於Salesforce/codet5-small微調的模型,用於為Python函數生成文檔字符串
文本生成
Transformers 英語

C
DunnBC22
20
4
T5 Pegasus Ch Ans
這是一個基於AutoTrain平臺訓練的T5-Pegasus架構的中文摘要生成模型,適用於從文本中提取關鍵信息生成摘要。
文本生成
Transformers 中文

T
lambdarw
13
0
Flan T5 Large Finetuned Openai Summarize From Feedback
Apache-2.0
基於google/flan-t5-large模型在基於反饋的摘要數據集上微調的文本摘要模型
文本生成
Transformers

F
mrm8488
50
6
Flan T5 Small Finetuned Openai Summarize From Feedback
Apache-2.0
本模型是在summarize_from_feedback數據集上對google/flan-t5-small進行微調的版本,主要用於文本摘要任務。
文本生成
Transformers

F
mrm8488
33
9
Mt5 Summarize Japanese
Apache-2.0
基於google/mt5-small微調的日語摘要生成模型,專門用於新聞故事摘要生成
文本生成
Transformers 日語

M
tsmatz
552
19
TGL 3
Apache-2.0
TGL-3是基於t5-small微調的摘要生成模型,在23000條openreview.net摘要數據上訓練,支持學術文本摘要生成任務。
文本生成
Transformers

T
awesometeng
13
1
T5 Small Finetuned Cnn News
Apache-2.0
基於T5-small模型在CNN/DailyMail新聞數據集上微調的文本摘要模型,能夠生成新聞文章的簡潔摘要。
文本生成
Transformers

T
shivaniNK8
25
0
T5 Small Finetuned Cnn V2
Apache-2.0
基於T5-small模型在cnn_dailymail數據集上微調的文本摘要生成模型
文本生成
Transformers

T
ubikpt
20
1
T5 Small Finetuned Cnn
Apache-2.0
基於T5-small架構在cnn_dailymail數據集上微調的文本摘要生成模型,擅長新聞摘要生成任務
文本生成
Transformers

T
ubikpt
55
0
Mt5 Base Finetuned Fa
Apache-2.0
基於google/mt5-base在pn_summary數據集上微調的波斯語摘要生成模型
文本生成
Transformers 其他

M
ahmeddbahaa
20
1
Arat5 Base Finetune Ar Xlsum
基於AraT5-base模型在阿拉伯語摘要數據集xlsum上微調的抽象摘要模型
文本生成
Transformers 阿拉伯語

A
ahmeddbahaa
15
0
Mt5 Multilingual XLSum Finetuned Fa Finetuned Ar
基於mT5的多語言摘要生成模型,專門針對阿拉伯語在XLSum數據集上進行了微調
文本生成
Transformers 阿拉伯語

M
ahmeddbahaa
13
1
Mt5 Multilingual XLSum Sumarizacao PTBR
該模型是基於mT5_multilingual_XLSum在未知數據集上微調得到的葡萄牙語文本摘要模型
文本生成
Transformers

M
GiordanoB
23
2
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基於google/mt5-small模型在亞馬遜數據集上微調的英西翻譯模型,專注於文本摘要任務
機器翻譯
Transformers

M
spasis
28
0
T5 Small Finetuned Contradiction
Apache-2.0
基於T5-small架構在SNLI數據集上微調的文本生成模型,專注於矛盾關係識別和摘要生成任務
文本生成
Transformers

T
domenicrosati
21
2
Arabart Finetuned Ar
Apache-2.0
基於AraBART模型在阿拉伯語摘要數據集xlsum上微調的文本摘要模型
文本生成
Transformers

A
ahmeddbahaa
40
0
Mt5 Small Finetuned Amazon En Zh TW
Apache-2.0
該模型是基於google/mt5-small在亞馬遜數據集上微調的文本摘要模型,支持英文到繁體中文的摘要生成任務。
文本生成
Transformers

M
peterhsu
28
0
Bert2bert Shared Spanish Finetuned Summarization
這是一個基於西班牙語BERT模型(BETO)微調的文本摘要模型,專門用於西班牙語文本的自動摘要生成。
文本生成
Transformers 西班牙語

B
mrm8488
3,185
31
Distilbart Cnn 12 3
Apache-2.0
DistilBART是BART模型的蒸餾版本,專注於文本摘要任務,在保持較高性能的同時顯著減少模型大小和推理時間。
文本生成 英語
D
sshleifer
145
4
Distilbart Cnn 6 6
Apache-2.0
DistilBART是BART模型的蒸餾版本,專為文本摘要任務優化,在保持較高性能的同時顯著提升推理速度。
文本生成 英語
D
sshleifer
48.17k
31
Mt5 Small Finetuned Arxiv Cs Finetuned Arxiv Cs Full
Apache-2.0
該模型是基於mt5-small在計算機科學領域arXiv論文數據集上微調的文本摘要生成模型,擅長生成技術性內容的簡潔摘要。
文本生成
Transformers

M
shamikbose89
16
5
Distilbart Xsum 1 1
Apache-2.0
DistilBART是BART模型的蒸餾版本,專為文本摘要任務優化,在保持較高性能的同時顯著減少模型大小和推理時間。
文本生成 英語
D
sshleifer
2,198
0
Bart Large Finetuned Xsum
MIT
基於BART-large架構在wsj_markets數據集上微調的文本生成模型,擅長摘要生成任務
文本生成
Transformers

B
aristotletan
14
0
Distilbart Xsum 12 1
Apache-2.0
DistilBART是BART模型的蒸餾版本,專注於文本摘要生成任務,在保持較高性能的同時顯著減少模型參數量和推理時間。
文本生成 英語
D
sshleifer
396
7
Distilbart Xsum 12 3
Apache-2.0
DistilBART是BART模型的蒸餾版本,專門針對摘要生成任務進行了優化,在保持較高性能的同時顯著減少模型參數量和推理時間。
文本生成 英語
D
sshleifer
579
11
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98