# 英文摘要

T5 Small Text Summarization
Apache-2.0
基於T5-small架構在xsum數據集上微調的文本摘要模型,能夠生成簡潔的摘要內容。
文本生成 Transformers
T
bhuvaneswari
27
0
Finetuned T5 Xsum
Apache-2.0
基於T5-small模型,在XSum數據集上使用LoRA技術微調的文本摘要模型
文本生成 英語
F
Lakshan2003
22
0
GPT2 Summarizer
MIT
基於GPT-2架構微調的文本摘要模型,支持PyTorch和CoreML框架,適用於生成簡潔準確的文本摘要。
文本生成 Transformers
G
c2p-cmd
30
0
Conversation Summarizer V2
MIT
基於微調的 Llama 3.2 (3B) 的對話摘要模型,專門用於生成對話的簡潔摘要。
文本生成 英語
C
dkp2701
17
1
Pegasus X Base Synthsumm Open 16k
Apache-2.0
基於pegasus-x-base微調的文本摘要模型,使用合成數據訓練,擅長處理長文檔摘要任務。
文本生成 Transformers 英語
P
BEE-spoke-data
115
2
Mtsufall2024softwareengineering
Apache-2.0
基於T5-small微調的美國參眾兩院法案摘要生成模型
文本生成 Transformers 英語
M
cheaptrix
30
1
Long T5 Tglobal Base Synthsumm Direct
Apache-2.0
基於Long-T5架構的文本摘要模型,使用合成數據集synthsumm微調,專注於長文本摘要任務。
文本生成 Transformers 英語
L
pszemraj
15
1
Long T5 Base Govreport
Apache-2.0
基於Long-T5架構的政府報告摘要生成模型,專門針對長文檔摘要任務進行優化
文本生成 Transformers 英語
L
AleBurzio
866
2
Pegasus Multi News NewsSummarization BBC
基於Pegasus架構微調的新聞摘要生成模型,專門針對BBC新聞內容優化
文本生成 Transformers 英語
P
DunnBC22
658
2
Bart Base Xsum
Apache-2.0
基於facebook/bart-base在xsum數據集上微調的摘要生成模型,擅長生成簡潔準確的摘要。
文本生成 Transformers
B
morenolq
15
2
Summary Loop24
Apache-2.0
基於GPT2架構的文本摘要生成模型,專為CNN/Daily Mail數據集優化
文本生成 Transformers 英語
S
philippelaban
15
2
Roberta2roberta L 24 Cnn Daily Mail
Apache-2.0
基於RoBERTa-Large初始化的編碼器-解碼器模型,專為摘要生成任務設計,在CNN/DailyMail數據集上微調。
文本生成 Transformers 英語
R
google
128
6
Summarizer Cnndm
基於BART模型微調的英文文本摘要生成器,在cnn-dailymail數據集上訓練
文本生成 Transformers 英語
S
yuvraj
18
0
Xsumm
xSumm是一個專為極致摘要任務設計的BART模型,能夠為給定文章生成一行抽象概括。
文本生成 Transformers 英語
X
yuvraj
18
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase