Mt5 Base Cnn Then Norsumm
基於mt5-base架構訓練的文本摘要模型,支持從文本中提取關鍵信息生成摘要。
文本生成
Transformers

M
GloriaABK1
105
0
T5 Small Finetuned Xsum
Apache-2.0
基於T5-small模型在XSum數據集上微調的文本摘要模型
文本生成
Transformers

T
bdwjaya
103
0
Fine Tuned Bart
基於facebook/bart-large-cnn微調的印尼語文本摘要模型
文本生成
Safetensors
F
xTorch8
229
0
Khmer Mt5 Summarization 1024tk V2
Apache-2.0
基於mT5-small改進的高棉語文本摘要模型,支持最長1024詞元的輸入,適用於高棉語文章、段落或文檔的摘要生成。
文本生成
Transformers 其他

K
songhieng
16
1
Finetuned T5 Xsum
Apache-2.0
基於T5-small模型,在XSum數據集上使用LoRA技術微調的文本摘要模型
文本生成 英語
F
Lakshan2003
22
0
Bart Large CNN Onnx
BART Large CNN 是一個基於 BART 架構的預訓練模型,專門用於文本摘要任務。
文本生成
Transformers

B
c2p-cmd
13
0
Bengali Summarizer Mt5
MIT
基於MT5模型微調的孟加拉語文本摘要模型,適用於生成孟加拉語文本的簡明摘要。
文本生成
Transformers 其他

B
tashfiq61
21
0
PEGASUS Liputan6
MIT
基於PEGASUS架構的印尼文摘要生成模型,在Liputan6新聞數據集上微調,適用於印尼文新聞內容的自動摘要生成。
文本生成 其他
P
fatihfauzan26
14
0
Bart Large Cnn
MIT
這是facebook/bart-large-cnn模型的ONNX優化版本,主要用於文本摘要任務。
文本生成
Transformers

B
philipp-zettl
15
0
Summarization Tamil
MIT
一個基於Hugging Face Transformers庫微調的模型,支持泰米爾語摘要生成和英語-泰米爾語翻譯任務。
文本生成
Transformers 支持多種語言

S
Mr-Vicky-01
35
2
Bart Finetuned Text Summarization
MIT
基於BART架構微調的文本摘要模型,專為生成簡潔準確的摘要而設計
文本生成
Transformers 英語

B
suriya7
1,547
9
T5 Portuguese Small Summarization
Apache-2.0
基於Google T5-small微調的葡萄牙語摘要生成模型,針對葡萄牙語文本摘要任務優化
文本生成
Transformers 其他

T
rhaymison
158
0
Mt5 Base Thaisum Text Summarization
基於mT5架構微調的泰語文本摘要模型,支持生成40-140字符的簡潔摘要
文本生成
Transformers 其他

M
StelleX
178
1
Distilbart Cnn 12 6
DistilBART-CNN-12-6是BART模型的蒸餾版本,專為文本摘要任務優化,體積更小但保持較高性能。
文本生成
Transformers

D
Xenova
218
0
Het5 Small Summarization
這是一個基於希伯來語的文本摘要模型,能夠將輸入的希伯來語文本自動生成簡潔的摘要。
文本生成
Transformers 其他

H
imvladikon
14
0
Bart Base Multi News
Apache-2.0
基於facebook/bart-base在multi_news數據集上微調的文本摘要生成模型
文本生成
Transformers 英語

B
Ssarion
15
0
Mt5 Small Thaisum 512 Title
Apache-2.0
基於mT5-small微調的泰語文本摘要模型,專門用於生成文章標題
文本生成
Transformers 其他

M
Nopphakorn
34
0
Multi News Diff Weight
Apache-2.0
該模型是基於facebook/bart-base在multi_news數據集上微調的文本摘要模型,專門用於多文檔摘要任務。
文本生成
Transformers

M
cs608
15
0
Distilbart Cnn 6 6
Apache-2.0
基於BART架構的輕量級文本摘要模型,通過知識蒸餾技術壓縮原始模型規模,保留核心摘要能力
文本生成
Transformers

D
Xenova
1,260
7
Flan T5 Base Tldr News
一個針對TLDR新聞文章進行文本摘要和標題生成的微調T5模型
文本生成
Transformers 英語

F
ybagoury
16
2
Mt5 Multilingual XLSum Rust
基於XL-Sum數據集在45種語言上微調的mT5模型,用於多語言摘要生成任務。
文本生成 支持多種語言
M
spursyy
18
3
Mt5 Base HunSum 1
Apache-2.0
基於mT5-base架構的匈牙利語抽象摘要模型,在HunSum-1數據集上訓練
文本生成
Transformers 其他

M
SZTAKI-HLT
39
2
Pegasus Multi News NewsSummarization BBC
基於Pegasus架構微調的新聞摘要生成模型,專門針對BBC新聞內容優化
文本生成
Transformers 英語

P
DunnBC22
658
2
MLQ Distilbart Bbc
Apache-2.0
該模型是基於sshleifer/distilbart-cnn-12-6在BBC新聞摘要數據集上微調的文本摘要模型,由都靈理工大學深度自然語言處理課程實驗室實踐開發。
文本生成
Transformers

M
DeepNLP-22-23
20
0
Facebook Bart Large Cnn
MIT
BART是一個基於Transformer的序列到序列模型,專門用於文本摘要生成任務。
文本生成 英語
F
Yelyzaveta
24
0
Greek Text Summarization
Apache-2.0
這是一個針對希臘語文本摘要任務進行微調的mT5-small模型,能夠生成希臘語文本的摘要。
文本生成
Transformers 其他

G
kriton
12.52k
6
Ptt5 Base Summ Xlsum
MIT
基於PTT5微調的巴西葡萄牙語文本抽象摘要生成模型,支持新聞等多種文本的摘要生成。
文本生成
Transformers 其他

P
recogna-nlp
3,754
16
Bart Base Cnn Swe
MIT
基於BART架構的瑞典語摘要模型,在CNN Daily瑞典語數據集上微調
文本生成
Transformers 其他

B
Gabriel
31
1
Longt5 Base Global Mediasum
基於google/long-t5-tglobal-base微調的文本摘要模型,在XSum和CNN/DailyMail數據集上表現良好。
文本生成
Transformers

L
nbroad
19
0
Distilbart Cnn 12 6 Ftn Multi News
Apache-2.0
該模型是基於distilbart-cnn-12-6在multi_news數據集上微調的文本摘要模型,專門用於多文檔摘要任務。
文本生成
Transformers

D
datien228
22
3
Mbart Finetune En Cnn
基於MBART-large-50微調的英文抽象摘要模型,在CNN/DailyMail數據集上訓練,擅長生成新聞文章的簡潔摘要。
文本生成
Transformers 英語

M
eslamxm
19
0
Test Model
Randeng-Pegasus-238M-Summary-Chinese 是一個基於PEGASUS架構的中文摘要生成模型,由IDEA-CCNL開發,專門用於生成中文文本的摘要。
文本生成
Transformers 中文

T
dongxq
16
0
Arat5 Base Finetune Ar Xlsum
基於AraT5-base模型在阿拉伯語摘要數據集xlsum上微調的抽象摘要模型
文本生成
Transformers 阿拉伯語

A
ahmeddbahaa
15
0
Mt5 Multilingual XLSum Finetuned Fa Finetuned Ar
基於mT5的多語言摘要生成模型,專門針對阿拉伯語在XLSum數據集上進行了微調
文本生成
Transformers 阿拉伯語

M
ahmeddbahaa
13
1
Mt5 Multilingual XLSum Finetuned Fa
該模型是基於mT5_multilingual_XLSum在波斯語摘要數據集pn_summary上微調的生成式摘要模型
文本生成
Transformers 其他

M
ahmeddbahaa
51
2
Mt5 Base Arabic
Apache-2.0
基於google/mt5-base在xlsum阿拉伯語數據集上微調的摘要生成模型
文本生成
Transformers 阿拉伯語

M
eslamxm
24
0
Mt5 Base Turkish Summarization
Apache-2.0
基於google/mt5-base在mlsum/tu數據集上微調的土耳其語文本摘要模型
文本生成
Transformers

M
mukayese
249
6
Roberta2roberta L 24 Bbc
Apache-2.0
基於RoBERTa架構的編碼器-解碼器模型,專為極端摘要生成任務設計,在BBC XSum數據集上微調。
文本生成
Transformers 英語

R
google
959
3
Pn Summary Mt5 Base
該模型是基於mT5-base架構訓練的波斯語文本摘要生成模型,專門針對pn_summary數據集優化,能夠生成高質量的波斯語文本摘要。
文本生成
Transformers 其他

P
HooshvareLab
68
3
Distilbart Cnn 12 3
Apache-2.0
DistilBART是BART模型的蒸餾版本,專注於文本摘要任務,在保持較高性能的同時顯著減少模型大小和推理時間。
文本生成 英語
D
sshleifer
145
4
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98