# 新聞摘要

Mt5 Base Cnn Then Norsumm
基於mt5-base架構訓練的文本摘要模型,支持從文本中提取關鍵信息生成摘要。
文本生成 Transformers
M
GloriaABK1
105
0
T5 Small Finetuned Xsum
Apache-2.0
基於T5-small模型在XSum數據集上微調的文本摘要模型
文本生成 Transformers
T
bdwjaya
103
0
Fine Tuned Bart
基於facebook/bart-large-cnn微調的印尼語文本摘要模型
文本生成 Safetensors
F
xTorch8
229
0
Khmer Mt5 Summarization 1024tk V2
Apache-2.0
基於mT5-small改進的高棉語文本摘要模型,支持最長1024詞元的輸入,適用於高棉語文章、段落或文檔的摘要生成。
文本生成 Transformers 其他
K
songhieng
16
1
Finetuned T5 Xsum
Apache-2.0
基於T5-small模型,在XSum數據集上使用LoRA技術微調的文本摘要模型
文本生成 英語
F
Lakshan2003
22
0
Bart Large CNN Onnx
BART Large CNN 是一個基於 BART 架構的預訓練模型,專門用於文本摘要任務。
文本生成 Transformers
B
c2p-cmd
13
0
Bengali Summarizer Mt5
MIT
基於MT5模型微調的孟加拉語文本摘要模型,適用於生成孟加拉語文本的簡明摘要。
文本生成 Transformers 其他
B
tashfiq61
21
0
PEGASUS Liputan6
MIT
基於PEGASUS架構的印尼文摘要生成模型,在Liputan6新聞數據集上微調,適用於印尼文新聞內容的自動摘要生成。
文本生成 其他
P
fatihfauzan26
14
0
Bart Large Cnn
MIT
這是facebook/bart-large-cnn模型的ONNX優化版本,主要用於文本摘要任務。
文本生成 Transformers
B
philipp-zettl
15
0
Summarization Tamil
MIT
一個基於Hugging Face Transformers庫微調的模型,支持泰米爾語摘要生成和英語-泰米爾語翻譯任務。
文本生成 Transformers 支持多種語言
S
Mr-Vicky-01
35
2
Bart Finetuned Text Summarization
MIT
基於BART架構微調的文本摘要模型,專為生成簡潔準確的摘要而設計
文本生成 Transformers 英語
B
suriya7
1,547
9
T5 Portuguese Small Summarization
Apache-2.0
基於Google T5-small微調的葡萄牙語摘要生成模型,針對葡萄牙語文本摘要任務優化
文本生成 Transformers 其他
T
rhaymison
158
0
Mt5 Base Thaisum Text Summarization
基於mT5架構微調的泰語文本摘要模型,支持生成40-140字符的簡潔摘要
文本生成 Transformers 其他
M
StelleX
178
1
Distilbart Cnn 12 6
DistilBART-CNN-12-6是BART模型的蒸餾版本,專為文本摘要任務優化,體積更小但保持較高性能。
文本生成 Transformers
D
Xenova
218
0
Het5 Small Summarization
這是一個基於希伯來語的文本摘要模型,能夠將輸入的希伯來語文本自動生成簡潔的摘要。
文本生成 Transformers 其他
H
imvladikon
14
0
Bart Base Multi News
Apache-2.0
基於facebook/bart-base在multi_news數據集上微調的文本摘要生成模型
文本生成 Transformers 英語
B
Ssarion
15
0
Mt5 Small Thaisum 512 Title
Apache-2.0
基於mT5-small微調的泰語文本摘要模型,專門用於生成文章標題
文本生成 Transformers 其他
M
Nopphakorn
34
0
Multi News Diff Weight
Apache-2.0
該模型是基於facebook/bart-base在multi_news數據集上微調的文本摘要模型,專門用於多文檔摘要任務。
文本生成 Transformers
M
cs608
15
0
Distilbart Cnn 6 6
Apache-2.0
基於BART架構的輕量級文本摘要模型,通過知識蒸餾技術壓縮原始模型規模,保留核心摘要能力
文本生成 Transformers
D
Xenova
1,260
7
Flan T5 Base Tldr News
一個針對TLDR新聞文章進行文本摘要和標題生成的微調T5模型
文本生成 Transformers 英語
F
ybagoury
16
2
Mt5 Multilingual XLSum Rust
基於XL-Sum數據集在45種語言上微調的mT5模型,用於多語言摘要生成任務。
文本生成 支持多種語言
M
spursyy
18
3
Mt5 Base HunSum 1
Apache-2.0
基於mT5-base架構的匈牙利語抽象摘要模型,在HunSum-1數據集上訓練
文本生成 Transformers 其他
M
SZTAKI-HLT
39
2
Pegasus Multi News NewsSummarization BBC
基於Pegasus架構微調的新聞摘要生成模型,專門針對BBC新聞內容優化
文本生成 Transformers 英語
P
DunnBC22
658
2
MLQ Distilbart Bbc
Apache-2.0
該模型是基於sshleifer/distilbart-cnn-12-6在BBC新聞摘要數據集上微調的文本摘要模型,由都靈理工大學深度自然語言處理課程實驗室實踐開發。
文本生成 Transformers
M
DeepNLP-22-23
20
0
Facebook Bart Large Cnn
MIT
BART是一個基於Transformer的序列到序列模型,專門用於文本摘要生成任務。
文本生成 英語
F
Yelyzaveta
24
0
Greek Text Summarization
Apache-2.0
這是一個針對希臘語文本摘要任務進行微調的mT5-small模型,能夠生成希臘語文本的摘要。
文本生成 Transformers 其他
G
kriton
12.52k
6
Ptt5 Base Summ Xlsum
MIT
基於PTT5微調的巴西葡萄牙語文本抽象摘要生成模型,支持新聞等多種文本的摘要生成。
文本生成 Transformers 其他
P
recogna-nlp
3,754
16
Bart Base Cnn Swe
MIT
基於BART架構的瑞典語摘要模型,在CNN Daily瑞典語數據集上微調
文本生成 Transformers 其他
B
Gabriel
31
1
Longt5 Base Global Mediasum
基於google/long-t5-tglobal-base微調的文本摘要模型,在XSum和CNN/DailyMail數據集上表現良好。
文本生成 Transformers
L
nbroad
19
0
Distilbart Cnn 12 6 Ftn Multi News
Apache-2.0
該模型是基於distilbart-cnn-12-6在multi_news數據集上微調的文本摘要模型,專門用於多文檔摘要任務。
文本生成 Transformers
D
datien228
22
3
Mbart Finetune En Cnn
基於MBART-large-50微調的英文抽象摘要模型,在CNN/DailyMail數據集上訓練,擅長生成新聞文章的簡潔摘要。
文本生成 Transformers 英語
M
eslamxm
19
0
Test Model
Randeng-Pegasus-238M-Summary-Chinese 是一個基於PEGASUS架構的中文摘要生成模型,由IDEA-CCNL開發,專門用於生成中文文本的摘要。
文本生成 Transformers 中文
T
dongxq
16
0
Arat5 Base Finetune Ar Xlsum
基於AraT5-base模型在阿拉伯語摘要數據集xlsum上微調的抽象摘要模型
文本生成 Transformers 阿拉伯語
A
ahmeddbahaa
15
0
Mt5 Multilingual XLSum Finetuned Fa Finetuned Ar
基於mT5的多語言摘要生成模型,專門針對阿拉伯語在XLSum數據集上進行了微調
文本生成 Transformers 阿拉伯語
M
ahmeddbahaa
13
1
Mt5 Multilingual XLSum Finetuned Fa
該模型是基於mT5_multilingual_XLSum在波斯語摘要數據集pn_summary上微調的生成式摘要模型
文本生成 Transformers 其他
M
ahmeddbahaa
51
2
Mt5 Base Arabic
Apache-2.0
基於google/mt5-base在xlsum阿拉伯語數據集上微調的摘要生成模型
文本生成 Transformers 阿拉伯語
M
eslamxm
24
0
Mt5 Base Turkish Summarization
Apache-2.0
基於google/mt5-base在mlsum/tu數據集上微調的土耳其語文本摘要模型
文本生成 Transformers
M
mukayese
249
6
Roberta2roberta L 24 Bbc
Apache-2.0
基於RoBERTa架構的編碼器-解碼器模型,專為極端摘要生成任務設計,在BBC XSum數據集上微調。
文本生成 Transformers 英語
R
google
959
3
Pn Summary Mt5 Base
該模型是基於mT5-base架構訓練的波斯語文本摘要生成模型,專門針對pn_summary數據集優化,能夠生成高質量的波斯語文本摘要。
文本生成 Transformers 其他
P
HooshvareLab
68
3
Distilbart Cnn 12 3
Apache-2.0
DistilBART是BART模型的蒸餾版本,專注於文本摘要任務,在保持較高性能的同時顯著減少模型大小和推理時間。
文本生成 英語
D
sshleifer
145
4
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase