Bart Large Cnn
MIT
基于英语语料预训练的BART模型,专门针对CNN每日邮报数据集进行微调,适用于文本摘要任务
文本生成 英语
B
facebook
3.8M
1,364
Parrot Paraphraser On T5
Parrot是一个基于T5的释义框架,专为加速训练自然语言理解(NLU)模型而设计,通过生成高质量释义实现数据增强。
文本生成
Transformers

P
prithivida
910.07k
152
Distilbart Cnn 12 6
Apache-2.0
DistilBART是BART模型的蒸馏版本,专门针对文本摘要任务进行了优化,在保持较高性能的同时显著提升了推理速度。
文本生成 英语
D
sshleifer
783.96k
278
T5 Base Summarization Claim Extractor
基于T5架构的模型,专门用于从摘要文本中提取原子声明,是摘要事实性评估流程的关键组件。
文本生成
Transformers 英语

T
Babelscape
666.36k
9
Unieval Sum
UniEval是一个统一的多维评估器,用于自然语言生成任务的自动评估,支持多个可解释维度的评估。
文本生成
Transformers

U
MingZhong
318.08k
3
Pegasus Paraphrase
Apache-2.0
基于PEGASUS架构微调的文本复述模型,能够生成语义相同但表达不同的句子。
文本生成
Transformers 英语

P
tuner007
209.03k
185
T5 Base Korean Summarization
这是一个基于T5架构的韩语文本摘要模型,专为韩语文本摘要任务设计,通过微调paust/pko-t5-base模型在多个韩语数据集上训练而成。
文本生成
Transformers 韩语

T
eenzeenee
148.32k
25
Pegasus Xsum
PEGASUS是一种基于Transformer的预训练模型,专门用于抽象文本摘要任务。
文本生成 英语
P
google
144.72k
198
Bart Large Cnn Samsum
MIT
基于BART-large架构的对话摘要模型,专为SAMSum语料库微调,适用于生成对话摘要。
文本生成
Transformers 英语

B
philschmid
141.28k
258
Kobart Summarization
MIT
基于KoBART架构的韩语文本摘要模型,能够生成韩语新闻文章的简洁摘要。
文本生成
Transformers 韩语

K
gogamza
119.18k
12
Chatgpt Paraphraser On T5 Base
Openrail
基于T5-base架构训练的文本复述模型,能够生成高质量复述文本,号称Hugging Face平台最佳复述模型之一
文本生成
Transformers 英语

C
humarin
115.08k
185
Bart Finetuned Keyphrase Extraction
基于BART-base模型微调的关键词生成模型,适用于科学文献和新闻文本的关键词提取任务
文本生成
Transformers 英语

B
aglazkova
94.18k
14
T5 Base Grammar Correction
基于T5架构的语法校正模型,能够自动修正输入文本中的语法错误。
文本生成
Transformers 英语

T
vennify
77.05k
174
Mt5 Multilingual XLSum
基于XL-Sum数据集45种语言微调的mT5模型,用于多语言摘要生成任务
文本生成
Transformers 支持多种语言

M
csebuetnlp
73.34k
293
T5 Paraphrase Paws
基于T5架构的英语句子复述生成模型,使用Google PAWS数据集训练
文本生成 英语
T
Vamsi
67.42k
38
Text Summarization
Apache-2.0
基于T5 Small架构微调的文本摘要模型,能够生成简洁连贯的输入文本摘要。
文本生成
Transformers 英语

T
Falconsai
61.66k
227
Long T5 Tglobal Base Sci Simplify
Apache-2.0
该模型是基于Long-T5架构的文本摘要模型,专门用于生成科学论文的通俗易懂摘要。
文本生成
Transformers 英语

L
pszemraj
59.18k
10
Text2image Prompt Generator
基于GPT-2微调的文本生成图像提示词模型,训练数据来自Midjourney用户提交的25万条提示词
文本生成
Transformers 英语

T
succinctly
49.56k
301
Distilbart Cnn 6 6
Apache-2.0
DistilBART是BART模型的蒸馏版本,专为文本摘要任务优化,在保持较高性能的同时显著提升推理速度。
文本生成 英语
D
sshleifer
48.17k
31
Pegasus Large
PEGASUS是一种基于预训练和提取间隙句子的抽象摘要生成模型,由Google Research开发。
文本生成 英语
P
google
43.35k
103
Superprompt V1
MIT
基于SuperPrompt数据集微调的T5模型,用于将简短文本提示扩展为更详细的描述。
文本生成
Transformers 英语

S
roborovski
41.90k
82
Pegasus Cnn Dailymail
PEGASUS是基于抽取间隔句子的抽象摘要预训练模型,专注于文本摘要任务,通过混合数据集训练和多种优化策略提升性能。
文本生成 英语
P
google
37.32k
91
MEETING SUMMARY
Apache-2.0
基于BART架构的序列到序列模型,专门用于会议对话的抽象摘要生成,支持多语言会议记录处理。
文本生成
Transformers 英语

M
knkarthick
32.45k
191
Mbart Large 50 Finetuned Xlsum Summarization
mBART-large-50 是一个多语言序列到序列模型,支持50种语言的文本摘要和生成任务。
文本生成
Transformers

M
skripsi-summarization-1234
28.54k
0
T5 Base En Generate Headline
基于50万篇带标题文章训练的T5模型,用于为给定文章生成简洁准确的单行标题。
文本生成
T
Michau
26.72k
53
Long T5 Tglobal Base 16384 Book Summary
Bsd-3-clause
基于Long-T5架构的书籍摘要生成模型,支持处理长文档并生成高质量摘要。
文本生成
L
pszemraj
24.19k
134
Long T5 Tglobal Base Sci Simplify Elife
Apache-2.0
基于Long-T5架构的模型,专门用于科学论文的通俗摘要生成,能将复杂研究内容转化为非专业人士可理解的文本。
文本生成
Transformers 英语

L
pszemraj
22.98k
5
Bart Large Xsum
MIT
基于BART架构的大型摘要生成模型,专门在xsum数据集上微调,擅长生成简洁的新闻摘要。
文本生成 英语
B
facebook
20.44k
35
T5 Small Booksum
MIT
基于 BookSum 数据集的摘要生成模型,擅长从书籍内容中生成简洁准确的摘要。
文本生成
Transformers

T
cnicu
18.09k
9
Spelling Correction English Base
MIT
这是一个实验性模型,旨在修正英语文本中的拼写错误和标点符号。
文本生成
Transformers 英语

S
oliverguhr
17.59k
76
Command R 01 Ultra NEO DARK HORROR V1 V2 35B IMATRIX GGUF
Apache-2.0
基于Command-R 35B模型的两个恐怖主题增强版本,通过DARK HORROR NEO Imatrix数据集强化了恐怖元素生成能力
文本生成 英语
C
DavidAU
16.66k
13
Codet5 Base Multi Sum
Bsd-3-clause
CodeT5-base是一个基于T5架构的多语言代码摘要模型,支持Ruby/JavaScript/Go/Python/Java/PHP六种编程语言。
文本生成
Transformers

C
Salesforce
15.80k
31
Flux Prompt Enhance
Apache-2.0
基于T5架构的提示词增强模型,可将简短提示扩展为详细描述
文本生成
Transformers 英语

F
gokaygokay
14.52k
59
Led Base Book Summary
Bsd-3-clause
一个基于LED架构的文本摘要模型,专门用于处理技术性、学术性和叙事性长文本的摘要生成。
文本生成
Transformers 其他

L
pszemraj
13.10k
63
Greek Text Summarization
Apache-2.0
这是一个针对希腊语文本摘要任务进行微调的mT5-small模型,能够生成希腊语文本的摘要。
文本生成
Transformers 其他

G
kriton
12.52k
6
Financial Summarization Pegasus
基于彭博社2000篇金融新闻微调的PEGASUS模型,专为金融领域摘要生成优化
文本生成
Transformers 英语

F
human-centered-summarization
11.89k
135
Pegasus Xsum Finetuned Xlsum Summarization
PEGASUS-XSum 是一个基于 PEGASUS 架构的预训练文本摘要模型,专门针对极端摘要(XSum)任务进行了优化。
文本生成
Transformers

P
skripsi-summarization-1234
11.89k
0
FRED T5 Summarizer
MIT
由SberDevices开发的俄语文本摘要生成模型,基于T5架构,参数规模1.7B
文本生成
Transformers 其他

F
RussianNLP
11.76k
21
Mbart Ru Sum Gazeta
Apache-2.0
基于MBART架构的俄语新闻摘要生成模型,专为Gazeta.ru新闻文章优化
文本生成
Transformers 其他

M
IlyaGusev
11.10k
62
Bart Large Xsum Samsum
Apache-2.0
这是一个基于BART架构的序列到序列模型,专门用于对话摘要生成任务。
文本生成
Transformers 英语

B
lidiya
10.96k
38
Randeng Pegasus 523M Summary Chinese
专精于文本摘要任务的中文PEGASUS-large模型,在多个中文摘要数据集上微调得到
文本生成
Transformers 中文

R
IDEA-CCNL
9,549
58
Rut5 Base Headline Gen Telegram
Apache-2.0
基于rut5-base的俄语新闻标题生成模型,专为Telegram平台优化
文本生成
Transformers 其他

R
IlyaGusev
9,409
8
- 1
- 2
- 3
- 4
- 5
- 6
- 10