# ROUGE優化

T5 Small Finetuned Stock News 2
Apache-2.0
基於t5-small微調的文本摘要生成模型,在金融新聞領域表現良好
文本生成 Transformers
T
Kallia
40
0
Meetingscript
Apache-2.0
基於BigBird-Pegasus架構優化的會議轉錄文本摘要生成模型,支持處理長達4096標記的會議記錄並生成簡潔摘要
文本生成 Transformers 英語
M
Shaelois
21
1
T5 Small Title Ft
Apache-2.0
T5 Small 是 Google 發佈的 T5(Text-to-Text Transfer Transformer)模型的小型版本,適用於多種自然語言處理任務。
文本生成 Transformers 英語
T
swarup3204
25
0
Flant5summarize
這是一個基於Flan T5基礎模型在CNNDailyMail數據集上微調的摘要生成模型,能夠將新聞文章壓縮成簡潔的摘要。
文本生成 Safetensors 英語
F
Ismetdh
21
0
Fine Tuned Bart
基於facebook/bart-large-cnn微調的印尼語文本摘要模型
文本生成 Safetensors
F
xTorch8
229
0
Bart Large Cnn Finetuned For Email And Text
MIT
BART Large CNN 是一個基於 BART 架構的預訓練模型,專門用於文本摘要生成任務。
文本生成 英語
B
vapit
17
0
Khmer Mt5 Summarization
MIT
這是一個針對高棉語文本摘要任務微調的mT5模型,基於谷歌的mT5-small模型,在高棉語文本數據集上微調,能夠生成簡潔且語義豐富的高棉語文本摘要。
文本生成 Transformers 其他
K
songhieng
58
2
Pegasus Large Privacy Policy Summarization V2
MIT
基於谷歌Pegasus Large模型微調,專門用於將冗長的隱私政策文件摘要為簡潔版本。
文本生成 Transformers 英語
P
AryehRotberg
13
0
Fewshot Xsum Bart
MIT
基於BART-large的小樣本摘要生成模型,使用XSUM數據集的100個樣本訓練,展示小樣本學習在摘要任務中的潛力。
文本生成
F
bhargavis
19
1
PEGASUS Medium
MIT
PEGASUS Medium 是基於 PEGASUS 模型微調後的版本,專門針對印度尼西亞新聞文章進行抽象文本摘要任務優化。
文本生成 Safetensors 其他
P
fatihfauzan26
87
1
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基於google/mt5-small模型在未知數據集上微調的版本,主要用於英語到西班牙語的摘要生成任務。
文本生成 Transformers
M
kperron1
16
0
Scientific Paper Summarizer
基於PEGASUS架構微調的科學論文摘要生成專用模型
文本生成
S
Harsit
40
3
T5 Small Abstractive Summarizer
Apache-2.0
基於T5-small架構的文本摘要模型,在multi_news數據集上微調,擅長生成抽象式摘要
文本生成 Transformers
T
MK-5
80
0
Bart Base Job Info Summarizer
該模型是基於facebook/bart-base微調的職位信息摘要生成模型,專門用於從招聘信息中生成具有說服力的摘要。
文本生成
B
avisena
1,961
4
Mt5 Small Finetuned Gazeta Ru
Apache-2.0
基於google/mt5-small在gazeta數據集上微調的俄語摘要生成模型
文本生成 TensorBoard
M
sansmislom
33
0
Samsuntextsum
MIT
該模型是基於 Pegasus 架構,在 SAMSUM 數據集上微調得到的英語對話摘要模型。
文本生成 Transformers 英語
S
neuronstarml
20
0
Test Push
Apache-2.0
distilvit是一個基於VIT圖像編碼器和蒸餾版GPT-2文本解碼器的圖像轉文本模型,能夠生成圖像的文本描述。
圖像生成文本 Transformers
T
tarekziade
17
0
Vit Base Patch16 224 Distilgpt2
Apache-2.0
DistilViT 是一個基於視覺Transformer(ViT)和蒸餾版GPT-2的圖像描述生成模型,能夠將圖像轉換為文本描述。
圖像生成文本 Transformers
V
tarekziade
17
0
Lexlm Longformer BART Fixed V1
基於BART微調的抽象式摘要生成模型,專為處理長篇幅法律文檔設計,採用多步驟摘要生成方法
文本生成 Transformers 英語
L
MikaSie
15
2
BART No Extraction V2
基於BART微調的長法律文檔摘要生成模型,採用多階段摘要生成方法處理複雜法律文本
文本生成 Transformers 英語
B
MikaSie
280
0
Mt5 XLSUM Ua News
基於mT5多語言大模型在烏克蘭語新聞數據集上微調的標題生成模型,能夠為烏克蘭語新聞文章生成簡潔準確的標題。
文本生成 Transformers 其他
M
yelyah
110
1
Mt5 Small Finetuned Cnndailymail En
Apache-2.0
基於google/mt5-small模型在cnn_dailymail數據集上微調的摘要生成模型
文本生成 Transformers
M
Skier8402
16
0
Bart Summarizer Model
MIT
基於 facebook/bart-base 微調的文本摘要模型,擅長從長篇文本生成簡潔、連貫的摘要。
文本生成 Transformers 英語
B
KipperDev
30
3
Pegasus Indonesian Base Finetune
Apache-2.0
該模型是基於PEGASUS架構的印尼語文本摘要模型,在Indosum、Liputan6和XLSum數據集上微調而成,適用於新聞類文本摘要任務。
文本生成 Transformers 其他
P
thonyyy
172
2
Rut5 Base Summ
基於ruT5-base微調的俄語文本與對話摘要模型,支持多領域俄語文本的摘要生成任務
文本生成 Transformers 支持多種語言
R
d0rj
207
22
Tst Summarization
基於google/pegasus-xsum微調的新聞摘要生成模型,在cnn_dailymail數據集上訓練
文本生成 Transformers 英語
T
ChaniM
23
0
Long T5 Base Sumstew
基於Long-T5架構的摘要生成模型,支持多語言文本摘要任務。
文本生成 Transformers 支持多種語言
L
Joemgu
27
1
Sinmt5
該模型是基於mT5架構的多語言摘要生成模型,專門針對僧伽羅語進行了微調,用於生成CNN每日郵報僧伽羅語新聞的抽象摘要。
文本生成 Transformers
S
Hamza-Ziyard
14
0
Long T5 Base Govreport
Apache-2.0
基於Long-T5架構的政府報告摘要生成模型,專門針對長文檔摘要任務進行優化
文本生成 Transformers 英語
L
AleBurzio
866
2
Mbart Large 50 Finetuned Stocks Event All
MIT
基於facebook/mbart-large-50微調的摘要生成模型,專注於股票事件摘要任務
文本生成 Transformers
M
jiaoqsh
18
0
Flan T5 Base Tldr News
一個針對TLDR新聞文章進行文本摘要和標題生成的微調T5模型
文本生成 Transformers 英語
F
ybagoury
16
2
Mt5 Multilingual XLSum Rust
基於XL-Sum數據集在45種語言上微調的mT5模型,用於多語言摘要生成任務。
文本生成 支持多種語言
M
spursyy
18
3
Mt5 Small Finetuned 28jan 2
Apache-2.0
基於google/mt5-small微調的文本摘要生成模型,支持多語言文本摘要任務。
文本生成 Transformers
M
mqy
14
0
Review Summarizer En
該模型專門用於總結亞馬遜產品評論,生成簡潔的摘要。
文本生成 Transformers 英語
R
MurkatG
35
4
Summarization Hi Pegasus Hungarian
該模型是基於Pegasus架構微調的匈牙利語文本摘要生成模型,專為匈牙利語文本摘要任務優化
文本生成 Transformers 其他
S
NYTK
18
0
Summarization Hi Mbart Large 50 Hungarian
MIT
該模型是基於mBART-large-50微調的匈牙利語摘要生成模型,專門用於生成匈牙利語文本的抽象摘要。
文本生成 Transformers 其他
S
NYTK
185
1
Flan T5 3b Summarizer
Bsd-3-clause
基於3B參數的google/flan-t5-xl模型在多個摘要數據集上微調的通用摘要生成器,適用於學術和通用場景。
文本生成 Transformers 英語
F
jordiclive
231
36
Mt5 Small HunSum 1
基於mT5-small架構訓練的匈牙利語抽象摘要生成模型,使用HunSum-1數據集進行訓練
文本生成 Transformers 其他
M
SZTAKI-HLT
14
1
Mt5 Base HunSum 1
Apache-2.0
基於mT5-base架構的匈牙利語抽象摘要模型,在HunSum-1數據集上訓練
文本生成 Transformers 其他
M
SZTAKI-HLT
39
2
Pegasus Multi News NewsSummarization BBC
基於Pegasus架構微調的新聞摘要生成模型,專門針對BBC新聞內容優化
文本生成 Transformers 英語
P
DunnBC22
658
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase