Bart Large Cnn
MIT
基於英語語料預訓練的BART模型,專門針對CNN每日郵報數據集進行微調,適用於文本摘要任務
文本生成 英語
B
facebook
3.8M
1,364
Parrot Paraphraser On T5
Parrot是一個基於T5的釋義框架,專為加速訓練自然語言理解(NLU)模型而設計,通過生成高質量釋義實現數據增強。
文本生成
Transformers

P
prithivida
910.07k
152
Distilbart Cnn 12 6
Apache-2.0
DistilBART是BART模型的蒸餾版本,專門針對文本摘要任務進行了優化,在保持較高性能的同時顯著提升了推理速度。
文本生成 英語
D
sshleifer
783.96k
278
T5 Base Summarization Claim Extractor
基於T5架構的模型,專門用於從摘要文本中提取原子聲明,是摘要事實性評估流程的關鍵組件。
文本生成
Transformers 英語

T
Babelscape
666.36k
9
Unieval Sum
UniEval是一個統一的多維評估器,用於自然語言生成任務的自動評估,支持多個可解釋維度的評估。
文本生成
Transformers

U
MingZhong
318.08k
3
Pegasus Paraphrase
Apache-2.0
基於PEGASUS架構微調的文本複述模型,能夠生成語義相同但表達不同的句子。
文本生成
Transformers 英語

P
tuner007
209.03k
185
T5 Base Korean Summarization
這是一個基於T5架構的韓語文本摘要模型,專為韓語文本摘要任務設計,通過微調paust/pko-t5-base模型在多個韓語數據集上訓練而成。
文本生成
Transformers 韓語

T
eenzeenee
148.32k
25
Pegasus Xsum
PEGASUS是一種基於Transformer的預訓練模型,專門用於抽象文本摘要任務。
文本生成 英語
P
google
144.72k
198
Bart Large Cnn Samsum
MIT
基於BART-large架構的對話摘要模型,專為SAMSum語料庫微調,適用於生成對話摘要。
文本生成
Transformers 英語

B
philschmid
141.28k
258
Kobart Summarization
MIT
基於KoBART架構的韓語文本摘要模型,能夠生成韓語新聞文章的簡潔摘要。
文本生成
Transformers 韓語

K
gogamza
119.18k
12
Chatgpt Paraphraser On T5 Base
Openrail
基於T5-base架構訓練的文本複述模型,能夠生成高質量複述文本,號稱Hugging Face平臺最佳複述模型之一
文本生成
Transformers 英語

C
humarin
115.08k
185
Bart Finetuned Keyphrase Extraction
基於BART-base模型微調的關鍵詞生成模型,適用於科學文獻和新聞文本的關鍵詞提取任務
文本生成
Transformers 英語

B
aglazkova
94.18k
14
T5 Base Grammar Correction
基於T5架構的語法校正模型,能夠自動修正輸入文本中的語法錯誤。
文本生成
Transformers 英語

T
vennify
77.05k
174
Mt5 Multilingual XLSum
基於XL-Sum數據集45種語言微調的mT5模型,用於多語言摘要生成任務
文本生成
Transformers 支持多種語言

M
csebuetnlp
73.34k
293
T5 Paraphrase Paws
基於T5架構的英語句子複述生成模型,使用Google PAWS數據集訓練
文本生成 英語
T
Vamsi
67.42k
38
Text Summarization
Apache-2.0
基於T5 Small架構微調的文本摘要模型,能夠生成簡潔連貫的輸入文本摘要。
文本生成
Transformers 英語

T
Falconsai
61.66k
227
Long T5 Tglobal Base Sci Simplify
Apache-2.0
該模型是基於Long-T5架構的文本摘要模型,專門用於生成科學論文的通俗易懂摘要。
文本生成
Transformers 英語

L
pszemraj
59.18k
10
Text2image Prompt Generator
基於GPT-2微調的文本生成圖像提示詞模型,訓練數據來自Midjourney用戶提交的25萬條提示詞
文本生成
Transformers 英語

T
succinctly
49.56k
301
Distilbart Cnn 6 6
Apache-2.0
DistilBART是BART模型的蒸餾版本,專為文本摘要任務優化,在保持較高性能的同時顯著提升推理速度。
文本生成 英語
D
sshleifer
48.17k
31
Pegasus Large
PEGASUS是一種基於預訓練和提取間隙句子的抽象摘要生成模型,由Google Research開發。
文本生成 英語
P
google
43.35k
103
Superprompt V1
MIT
基於SuperPrompt數據集微調的T5模型,用於將簡短文本提示擴展為更詳細的描述。
文本生成
Transformers 英語

S
roborovski
41.90k
82
Pegasus Cnn Dailymail
PEGASUS是基於抽取間隔句子的抽象摘要預訓練模型,專注於文本摘要任務,通過混合數據集訓練和多種優化策略提升性能。
文本生成 英語
P
google
37.32k
91
MEETING SUMMARY
Apache-2.0
基於BART架構的序列到序列模型,專門用於會議對話的抽象摘要生成,支持多語言會議記錄處理。
文本生成
Transformers 英語

M
knkarthick
32.45k
191
Mbart Large 50 Finetuned Xlsum Summarization
mBART-large-50 是一個多語言序列到序列模型,支持50種語言的文本摘要和生成任務。
文本生成
Transformers

M
skripsi-summarization-1234
28.54k
0
T5 Base En Generate Headline
基於50萬篇帶標題文章訓練的T5模型,用於為給定文章生成簡潔準確的單行標題。
文本生成
T
Michau
26.72k
53
Long T5 Tglobal Base 16384 Book Summary
Bsd-3-clause
基於Long-T5架構的書籍摘要生成模型,支持處理長文檔並生成高質量摘要。
文本生成
L
pszemraj
24.19k
134
Long T5 Tglobal Base Sci Simplify Elife
Apache-2.0
基於Long-T5架構的模型,專門用於科學論文的通俗摘要生成,能將複雜研究內容轉化為非專業人士可理解的文本。
文本生成
Transformers 英語

L
pszemraj
22.98k
5
Bart Large Xsum
MIT
基於BART架構的大型摘要生成模型,專門在xsum數據集上微調,擅長生成簡潔的新聞摘要。
文本生成 英語
B
facebook
20.44k
35
T5 Small Booksum
MIT
基於 BookSum 數據集的摘要生成模型,擅長從書籍內容中生成簡潔準確的摘要。
文本生成
Transformers

T
cnicu
18.09k
9
Spelling Correction English Base
MIT
這是一個實驗性模型,旨在修正英語文本中的拼寫錯誤和標點符號。
文本生成
Transformers 英語

S
oliverguhr
17.59k
76
Command R 01 Ultra NEO DARK HORROR V1 V2 35B IMATRIX GGUF
Apache-2.0
基於Command-R 35B模型的兩個恐怖主題增強版本,通過DARK HORROR NEO Imatrix數據集強化了恐怖元素生成能力
文本生成 英語
C
DavidAU
16.66k
13
Codet5 Base Multi Sum
Bsd-3-clause
CodeT5-base是一個基於T5架構的多語言代碼摘要模型,支持Ruby/JavaScript/Go/Python/Java/PHP六種編程語言。
文本生成
Transformers

C
Salesforce
15.80k
31
Flux Prompt Enhance
Apache-2.0
基於T5架構的提示詞增強模型,可將簡短提示擴展為詳細描述
文本生成
Transformers 英語

F
gokaygokay
14.52k
59
Led Base Book Summary
Bsd-3-clause
一個基於LED架構的文本摘要模型,專門用於處理技術性、學術性和敘事性長文本的摘要生成。
文本生成
Transformers 其他

L
pszemraj
13.10k
63
Greek Text Summarization
Apache-2.0
這是一個針對希臘語文本摘要任務進行微調的mT5-small模型,能夠生成希臘語文本的摘要。
文本生成
Transformers 其他

G
kriton
12.52k
6
Financial Summarization Pegasus
基於彭博社2000篇金融新聞微調的PEGASUS模型,專為金融領域摘要生成優化
文本生成
Transformers 英語

F
human-centered-summarization
11.89k
135
Pegasus Xsum Finetuned Xlsum Summarization
PEGASUS-XSum 是一個基於 PEGASUS 架構的預訓練文本摘要模型,專門針對極端摘要(XSum)任務進行了優化。
文本生成
Transformers

P
skripsi-summarization-1234
11.89k
0
FRED T5 Summarizer
MIT
由SberDevices開發的俄語文本摘要生成模型,基於T5架構,參數規模1.7B
文本生成
Transformers 其他

F
RussianNLP
11.76k
21
Mbart Ru Sum Gazeta
Apache-2.0
基於MBART架構的俄語新聞摘要生成模型,專為Gazeta.ru新聞文章優化
文本生成
Transformers 其他

M
IlyaGusev
11.10k
62
Bart Large Xsum Samsum
Apache-2.0
這是一個基於BART架構的序列到序列模型,專門用於對話摘要生成任務。
文本生成
Transformers 英語

B
lidiya
10.96k
38
Randeng Pegasus 523M Summary Chinese
專精於文本摘要任務的中文PEGASUS-large模型,在多箇中文摘要數據集上微調得到
文本生成
Transformers 中文

R
IDEA-CCNL
9,549
58
Rut5 Base Headline Gen Telegram
Apache-2.0
基於rut5-base的俄語新聞標題生成模型,專為Telegram平臺優化
文本生成
Transformers 其他

R
IlyaGusev
9,409
8
- 1
- 2
- 3
- 4
- 5
- 6
- 10