T5 Small Finetuned Stock News 2
Apache-2.0
基於t5-small微調的文本摘要生成模型,在金融新聞領域表現良好
文本生成
Transformers

T
Kallia
40
0
Meetingscript
Apache-2.0
基於BigBird-Pegasus架構優化的會議轉錄文本摘要生成模型,支持處理長達4096標記的會議記錄並生成簡潔摘要
文本生成
Transformers 英語

M
Shaelois
21
1
T5 Small Title Ft
Apache-2.0
T5 Small 是 Google 發佈的 T5(Text-to-Text Transfer Transformer)模型的小型版本,適用於多種自然語言處理任務。
文本生成
Transformers 英語

T
swarup3204
25
0
Flant5summarize
這是一個基於Flan T5基礎模型在CNNDailyMail數據集上微調的摘要生成模型,能夠將新聞文章壓縮成簡潔的摘要。
文本生成
Safetensors 英語
F
Ismetdh
21
0
Fine Tuned Bart
基於facebook/bart-large-cnn微調的印尼語文本摘要模型
文本生成
Safetensors
F
xTorch8
229
0
Bart Large Cnn Finetuned For Email And Text
MIT
BART Large CNN 是一個基於 BART 架構的預訓練模型,專門用於文本摘要生成任務。
文本生成 英語
B
vapit
17
0
Khmer Mt5 Summarization
MIT
這是一個針對高棉語文本摘要任務微調的mT5模型,基於谷歌的mT5-small模型,在高棉語文本數據集上微調,能夠生成簡潔且語義豐富的高棉語文本摘要。
文本生成
Transformers 其他

K
songhieng
58
2
Pegasus Large Privacy Policy Summarization V2
MIT
基於谷歌Pegasus Large模型微調,專門用於將冗長的隱私政策文件摘要為簡潔版本。
文本生成
Transformers 英語

P
AryehRotberg
13
0
Fewshot Xsum Bart
MIT
基於BART-large的小樣本摘要生成模型,使用XSUM數據集的100個樣本訓練,展示小樣本學習在摘要任務中的潛力。
文本生成
F
bhargavis
19
1
PEGASUS Medium
MIT
PEGASUS Medium 是基於 PEGASUS 模型微調後的版本,專門針對印度尼西亞新聞文章進行抽象文本摘要任務優化。
文本生成
Safetensors 其他
P
fatihfauzan26
87
1
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基於google/mt5-small模型在未知數據集上微調的版本,主要用於英語到西班牙語的摘要生成任務。
文本生成
Transformers

M
kperron1
16
0
Scientific Paper Summarizer
基於PEGASUS架構微調的科學論文摘要生成專用模型
文本生成
S
Harsit
40
3
T5 Small Abstractive Summarizer
Apache-2.0
基於T5-small架構的文本摘要模型,在multi_news數據集上微調,擅長生成抽象式摘要
文本生成
Transformers

T
MK-5
80
0
Bart Base Job Info Summarizer
該模型是基於facebook/bart-base微調的職位信息摘要生成模型,專門用於從招聘信息中生成具有說服力的摘要。
文本生成
B
avisena
1,961
4
Mt5 Small Finetuned Gazeta Ru
Apache-2.0
基於google/mt5-small在gazeta數據集上微調的俄語摘要生成模型
文本生成
TensorBoard

M
sansmislom
33
0
Samsuntextsum
MIT
該模型是基於 Pegasus 架構,在 SAMSUM 數據集上微調得到的英語對話摘要模型。
文本生成
Transformers 英語

S
neuronstarml
20
0
Test Push
Apache-2.0
distilvit是一個基於VIT圖像編碼器和蒸餾版GPT-2文本解碼器的圖像轉文本模型,能夠生成圖像的文本描述。
圖像生成文本
Transformers

T
tarekziade
17
0
Vit Base Patch16 224 Distilgpt2
Apache-2.0
DistilViT 是一個基於視覺Transformer(ViT)和蒸餾版GPT-2的圖像描述生成模型,能夠將圖像轉換為文本描述。
圖像生成文本
Transformers

V
tarekziade
17
0
Lexlm Longformer BART Fixed V1
基於BART微調的抽象式摘要生成模型,專為處理長篇幅法律文檔設計,採用多步驟摘要生成方法
文本生成
Transformers 英語

L
MikaSie
15
2
BART No Extraction V2
基於BART微調的長法律文檔摘要生成模型,採用多階段摘要生成方法處理複雜法律文本
文本生成
Transformers 英語

B
MikaSie
280
0
Mt5 XLSUM Ua News
基於mT5多語言大模型在烏克蘭語新聞數據集上微調的標題生成模型,能夠為烏克蘭語新聞文章生成簡潔準確的標題。
文本生成
Transformers 其他

M
yelyah
110
1
Mt5 Small Finetuned Cnndailymail En
Apache-2.0
基於google/mt5-small模型在cnn_dailymail數據集上微調的摘要生成模型
文本生成
Transformers

M
Skier8402
16
0
Bart Summarizer Model
MIT
基於 facebook/bart-base 微調的文本摘要模型,擅長從長篇文本生成簡潔、連貫的摘要。
文本生成
Transformers 英語

B
KipperDev
30
3
Pegasus Indonesian Base Finetune
Apache-2.0
該模型是基於PEGASUS架構的印尼語文本摘要模型,在Indosum、Liputan6和XLSum數據集上微調而成,適用於新聞類文本摘要任務。
文本生成
Transformers 其他

P
thonyyy
172
2
Rut5 Base Summ
基於ruT5-base微調的俄語文本與對話摘要模型,支持多領域俄語文本的摘要生成任務
文本生成
Transformers 支持多種語言

R
d0rj
207
22
Tst Summarization
基於google/pegasus-xsum微調的新聞摘要生成模型,在cnn_dailymail數據集上訓練
文本生成
Transformers 英語

T
ChaniM
23
0
Long T5 Base Sumstew
基於Long-T5架構的摘要生成模型,支持多語言文本摘要任務。
文本生成
Transformers 支持多種語言

L
Joemgu
27
1
Sinmt5
該模型是基於mT5架構的多語言摘要生成模型,專門針對僧伽羅語進行了微調,用於生成CNN每日郵報僧伽羅語新聞的抽象摘要。
文本生成
Transformers

S
Hamza-Ziyard
14
0
Long T5 Base Govreport
Apache-2.0
基於Long-T5架構的政府報告摘要生成模型,專門針對長文檔摘要任務進行優化
文本生成
Transformers 英語

L
AleBurzio
866
2
Mbart Large 50 Finetuned Stocks Event All
MIT
基於facebook/mbart-large-50微調的摘要生成模型,專注於股票事件摘要任務
文本生成
Transformers

M
jiaoqsh
18
0
Flan T5 Base Tldr News
一個針對TLDR新聞文章進行文本摘要和標題生成的微調T5模型
文本生成
Transformers 英語

F
ybagoury
16
2
Mt5 Multilingual XLSum Rust
基於XL-Sum數據集在45種語言上微調的mT5模型,用於多語言摘要生成任務。
文本生成 支持多種語言
M
spursyy
18
3
Mt5 Small Finetuned 28jan 2
Apache-2.0
基於google/mt5-small微調的文本摘要生成模型,支持多語言文本摘要任務。
文本生成
Transformers

M
mqy
14
0
Review Summarizer En
該模型專門用於總結亞馬遜產品評論,生成簡潔的摘要。
文本生成
Transformers 英語

R
MurkatG
35
4
Summarization Hi Pegasus Hungarian
該模型是基於Pegasus架構微調的匈牙利語文本摘要生成模型,專為匈牙利語文本摘要任務優化
文本生成
Transformers 其他

S
NYTK
18
0
Summarization Hi Mbart Large 50 Hungarian
MIT
該模型是基於mBART-large-50微調的匈牙利語摘要生成模型,專門用於生成匈牙利語文本的抽象摘要。
文本生成
Transformers 其他

S
NYTK
185
1
Flan T5 3b Summarizer
Bsd-3-clause
基於3B參數的google/flan-t5-xl模型在多個摘要數據集上微調的通用摘要生成器,適用於學術和通用場景。
文本生成
Transformers 英語

F
jordiclive
231
36
Mt5 Small HunSum 1
基於mT5-small架構訓練的匈牙利語抽象摘要生成模型,使用HunSum-1數據集進行訓練
文本生成
Transformers 其他

M
SZTAKI-HLT
14
1
Mt5 Base HunSum 1
Apache-2.0
基於mT5-base架構的匈牙利語抽象摘要模型,在HunSum-1數據集上訓練
文本生成
Transformers 其他

M
SZTAKI-HLT
39
2
Pegasus Multi News NewsSummarization BBC
基於Pegasus架構微調的新聞摘要生成模型,專門針對BBC新聞內容優化
文本生成
Transformers 英語

P
DunnBC22
658
2
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98