# 新聞摘要生成

Mbart Large 50 Finetuned Xlsum Summarization
mBART-large-50 是一個多語言序列到序列模型,支持50種語言的文本摘要和生成任務。
文本生成 Transformers
M
skripsi-summarization-1234
28.54k
0
T5 Small Text Summarization
Apache-2.0
基於T5-small架構在xsum數據集上微調的文本摘要模型,能夠生成簡潔的摘要內容。
文本生成 Transformers
T
bhuvaneswari
27
0
Distilbart Multi News 12 6 2
Apache-2.0
DistilBART-CNN-12-6 是一個基於 BART 架構的輕量級摘要生成模型,專門針對 CNN/Daily Mail 數據集進行了優化。
文本生成 Transformers 英語
D
Angel0J
313
0
Bart Large Cnn Xsum
BART Large CNN 是一個基於 BART 架構的預訓練模型,專門用於文本摘要任務。
文本生成 Transformers 英語
B
leduytan0706
48
0
Flant5summarize
這是一個基於Flan T5基礎模型在CNNDailyMail數據集上微調的摘要生成模型,能夠將新聞文章壓縮成簡潔的摘要。
文本生成 Safetensors 英語
F
Ismetdh
21
0
News Summarizer T5 GGUF
Apache-2.0
這是一個基於T5架構的新聞摘要生成模型的靜態量化版本,支持英語文本摘要任務。
文本生成 英語
N
mradermacher
167
0
News Summarizer T5
Apache-2.0
基於google-t5/t5-small微調的新聞摘要生成模型,支持生成新聞文本的簡潔摘要。
文本生成 Transformers
N
SurAyush
62
0
Llama3 News Analysis
MIT
基於Llama-3.2-3B微調的新聞分析模型,支持摘要生成、情感分析、股票代碼提取和廣告識別
大型語言模型 Transformers 韓語
L
irene93
50
1
Bart Base Finetuned Cnn
Apache-2.0
基於BART架構的預訓練模型,專門用於英文新聞文章的文本摘要任務。
文本生成 Transformers 英語
B
gsasikiran
20
0
Aml Text Summarization T5
基於T5-Small架構開發的文本摘要模型,在CNN/Daily Mail數據集上微調,用於生成式文本摘要。
文本生成 英語
A
s0urin
22
0
Distilbart Cnn 12 6
DistilBART-CNN-12-6是BART模型的蒸餾版本,專門用於文本摘要任務,具有更小的模型尺寸和更高的推理效率。
文本生成 Transformers
D
Mozilla
18
2
T5 Small Abstractive Summarizer
Apache-2.0
基於T5-small架構的文本摘要模型,在multi_news數據集上微調,擅長生成抽象式摘要
文本生成 Transformers
T
MK-5
80
0
Text Summarization Cnn
Apache-2.0
基於Falconsai/text_summarization微調的文本摘要生成模型,支持從長文本中提取關鍵信息生成簡潔摘要。
文本生成 Transformers
T
vmkhoa2000
125
0
Clickbaitfighter 10B
基於NoticIA數據集微調的西班牙語標題黨新聞摘要生成模型,能揭示聳動標題背後的真實內容
大型語言模型 Transformers 西班牙語
C
Iker
48
0
Flan T5 Portuguese Small Summarization
Apache-2.0
基於google/flan-t5-small微調的葡萄牙語摘要生成模型,適用於葡萄牙語文本摘要任務,模型規模較小但表現良好。
文本生成 Transformers 其他
F
rhaymison
45
0
Norgpt 3B Rfhl Summarization
基於NorGPT-3B模型,採用RLHF策略在挪威語新聞摘要數據集上微調的文本摘要模型
文本生成 Transformers 其他
N
NorGLM
56
0
Mt5 Small Finetuned Cnndailymail En
Apache-2.0
基於google/mt5-small模型在cnn_dailymail數據集上微調的摘要生成模型
文本生成 Transformers
M
Skier8402
16
0
Ptt5 Base Summ
MIT
基於PTT5微調的巴西葡萄牙語抽象摘要生成模型,支持從新聞等文本中生成簡潔摘要。
文本生成 Transformers 其他
P
recogna-nlp
853
0
Bart Keyword Extractor
Apache-2.0
基於facebook/bart-large微調的文本關鍵詞提取模型
文本生成 Transformers 英語
B
ilsilfverskiold
558
7
Tst Summarization
基於google/pegasus-xsum微調的新聞摘要生成模型,在cnn_dailymail數據集上訓練
文本生成 Transformers 英語
T
ChaniM
23
0
Summarization Hi Pegasus Hungarian
該模型是基於Pegasus架構微調的匈牙利語文本摘要生成模型,專為匈牙利語文本摘要任務優化
文本生成 Transformers 其他
S
NYTK
18
0
Summarization Hi Mbart Large 50 Hungarian
MIT
該模型是基於mBART-large-50微調的匈牙利語摘要生成模型,專門用於生成匈牙利語文本的抽象摘要。
文本生成 Transformers 其他
S
NYTK
185
1
BERT Summary
Apache-2.0
基於BERT2BERT架構的摘要生成模型,專為CNN/DailyMail數據集微調,能夠生成高質量的新聞摘要。
文本生成 Transformers 英語
B
Shobhank-iiitdwd
39
7
T5 Finetune Bbc News
MIT
基於Transformer架構的輕量級預訓練編碼器-解碼器模型,專為文本摘要任務優化。
文本生成 Transformers 英語
T
minhtoan
18
1
T5 Finetune Cnndaily News
MIT
基於Transformer架構的輕量級預訓練編碼器-解碼器模型,專用於中文新聞摘要生成任務。
文本生成 Transformers 英語
T
minhtoan
22
2
Gpt2 Finetuned Cnn Summarization V2
MIT
基於GPT-2微調的文本摘要生成模型
文本生成 Transformers
G
gavin124
266
7
Gpt2 Finetuned Cnn Summarization V1
MIT
基於GPT-2微調的文本摘要生成模型
文本生成 Transformers
G
gavin124
24
1
Bart Base Facebook
Apache-2.0
該模型是基於facebook/bart-base在xsum數據集上微調的版本,主要用於摘要生成任務。
文本生成 Transformers
B
sunsvrv
18
0
Bart Base Xsum
Apache-2.0
基於facebook/bart-base在xsum數據集上微調的摘要生成模型,擅長生成簡潔準確的摘要。
文本生成 Transformers
B
morenolq
15
2
Ptt5 Base Summ Cstnews
MIT
基於PTT5微調的巴西葡萄牙語文本抽象摘要生成模型
文本生成 Transformers 其他
P
recogna-nlp
47
8
Ptt5 Base Summ Temario
MIT
基於PTT5微調的模型,用於生成巴西葡萄牙語文本的抽象摘要。
文本生成 Transformers 其他
P
recogna-nlp
159
1
T5 Large Finetuned Xsum Cnn
MIT
這是一個基於T5-large模型微調的摘要生成模型,在XSUM和CNN每日郵報數據集上訓練,擅長生成簡潔準確的摘要。
文本生成 Transformers 英語
T
sysresearch101
47
5
T5 Small Finetuned Cnn News
Apache-2.0
基於T5-small模型在CNN/DailyMail新聞數據集上微調的文本摘要模型,能夠生成新聞文章的簡潔摘要。
文本生成 Transformers
T
shivaniNK8
25
0
T5 Small Finetuned Cnn V2
Apache-2.0
基於T5-small模型在cnn_dailymail數據集上微調的文本摘要生成模型
文本生成 Transformers
T
ubikpt
20
1
T5 Small Finetuned Cnn
Apache-2.0
基於T5-small架構在cnn_dailymail數據集上微調的文本摘要生成模型,擅長新聞摘要生成任務
文本生成 Transformers
T
ubikpt
55
0
Randeng Pegasus 523M Chinese
專精於文本摘要任務的中文版PAGASUS-large模型,基於PEGASUS架構訓練,針對中文分詞進行優化。
文本生成 Transformers 中文
R
IDEA-CCNL
329
12
Mtl Summarization
Apache-2.0
MTL-摘要模型是一個專為摘要任務設計的文本生成模型,通過混合多個標註摘要數據集進行監督預訓練。
文本生成 Transformers 支持多種語言
M
RUCAIBox
13
0
Indicbart XLSum
IndicBART-XLSum是一個基於多語言獨立腳本IndicBART的序列到序列預訓練模型,專注於印度語言。
大型語言模型 Transformers 其他
I
ai4bharat
290
4
Randeng BART 139M SUMMARY
Apache-2.0
基於BART架構的中文文本摘要模型,參數量1.39億,擅長處理文本摘要任務。
文本生成 Transformers 中文
R
IDEA-CCNL
504
12
Distilbart Xsum 12 6
Apache-2.0
DistilBART是BART模型的蒸餾版本,專注於文本摘要任務,在保持較高性能的同時顯著減少模型大小和推理時間。
文本生成 英語
D
sshleifer
1,446
6
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase