Pegasus Xsum Finetuned Xlsum Summarization
PEGASUS-XSum 是一個基於 PEGASUS 架構的預訓練文本摘要模型,專門針對極端摘要(XSum)任務進行了優化。
文本生成
Transformers

P
skripsi-summarization-1234
11.89k
0
T5 Small Text Summarization
Apache-2.0
基於T5-small架構在xsum數據集上微調的文本摘要模型,能夠生成簡潔的摘要內容。
文本生成
Transformers

T
bhuvaneswari
27
0
Pegasus Finetuned Samsum
該模型是基於google/pegasus-cnn_dailymail在samsum數據集上微調的文本摘要模型,專門用於對話摘要任務。
文本生成
Transformers 英語

P
avanishd
20
0
Flan T5 Titlegen Springer
MIT
基於google/flan-t5-base微調的模型,專門用於將科學摘要精煉為簡潔標題的抽象摘要生成任務。
文本生成
Transformers 英語

F
tiam4tt
236
0
Clickbaitfighter 10B
基於NoticIA數據集微調的西班牙語標題黨新聞摘要生成模型,能揭示聳動標題背後的真實內容
大型語言模型
Transformers 西班牙語

C
Iker
48
0
Bart Large Cnn Samsum
Apache-2.0
基於BART-large架構微調的對話摘要生成模型,在SAMSum數據集上訓練
文本生成
Transformers

B
AdamCodd
18
2
Autotrain Summarization Bart Longformer 54164127153
基於AutoTrain平臺訓練的文本摘要生成模型,採用BART-Longformer架構
文本生成
Transformers 其他

A
Udit191
16
0
Flan T5 Base Samsum
Apache-2.0
基於Google的flan-t5-base模型在samsum對話摘要數據集上微調的文本生成模型,擅長對話摘要任務
大型語言模型
Transformers 英語

F
achimoraites
15
3
Bart Large Xsum Finetuned Samsum V2
MIT
該模型是基於facebook/bart-large-xsum在samsum數據集上微調的文本摘要生成模型,擅長生成對話摘要。
文本生成
Transformers

B
amagzari
48
1
Facebook Bart Large Cnn
MIT
BART是一個基於Transformer的序列到序列模型,專門用於文本摘要生成任務。
文本生成 英語
F
Yelyzaveta
24
0
Bart Base Xsum
Apache-2.0
基於facebook/bart-base在xsum數據集上微調的摘要生成模型,擅長生成簡潔準確的摘要。
文本生成
Transformers

B
morenolq
15
2
T5 Large Finetuned Xsum Cnn
MIT
這是一個基於T5-large模型微調的摘要生成模型,在XSUM和CNN每日郵報數據集上訓練,擅長生成簡潔準確的摘要。
文本生成
Transformers 英語

T
sysresearch101
47
5
Longt5 Base Global Mediasum
基於google/long-t5-tglobal-base微調的文本摘要模型,在XSum和CNN/DailyMail數據集上表現良好。
文本生成
Transformers

L
nbroad
19
0
Distilbart Cnn 12 6 Ftn Multi News
Apache-2.0
該模型是基於distilbart-cnn-12-6在multi_news數據集上微調的文本摘要模型,專門用於多文檔摘要任務。
文本生成
Transformers

D
datien228
22
3
Kot5 Summarization
Apache-2.0
KoT5 是一個基於 T5 架構的韓語文本摘要模型,專門針對韓語文本摘要任務進行了優化。
文本生成
Transformers 韓語

K
psyche
285
19
Long T5 Tglobal Base 16384 Book Summary
Bsd-3-clause
基於Long-T5架構的書籍摘要生成模型,支持處理長文檔並生成高質量摘要。
文本生成
L
pszemraj
24.19k
134
Bart Base Finetuned Samsum En
Apache-2.0
該模型是基於facebook/bart-base在samsum數據集上微調的版本,專門用於摘要生成任務。
文本生成
Transformers

B
santiviquez
25
0
Led Base Ilc
Apache-2.0
基於ILC數據集微調的Longformer編碼器-解碼器模型,專門用於法律文檔摘要生成任務
文本生成
Transformers 其他

L
d0r1h
28
0
Bart Large Cnn Samsum Rescom Finetuned Resume Summarizer 9 Epoch Tweak
基於BART-large架構微調的簡歷摘要生成模型,在ROUGE指標上表現優異
文本生成
Transformers

B
Ameer05
19
0
Bart Large Cnn Samsum Rescom Finetuned Resume Summarizer 10 Epoch Tweak Lr 8 100 1
基於BART架構的文本摘要模型,在未知數據集上微調,擅長生成簡歷摘要
文本生成
Transformers

B
Ameer05
18
1
Bart Large Cnn Samsum Rescom Finetuned Resume Summarizer 10 Epoch
基於BART-large架構的文本摘要模型,在未知數據集上進行了10輪微調,擅長生成簡歷摘要。
文本生成
Transformers

B
Ameer05
26
1
Bart Summarisation
Apache-2.0
基於BART-large架構的對話摘要模型,專門針對SAMSum對話數據集進行微調,能夠生成高質量的對話摘要。
文本生成
Transformers 英語

B
slauw87
4,225
59
Bart Large Cnn Samsum
MIT
基於BART-large架構的對話摘要模型,專為SAMSum語料庫微調,適用於生成對話摘要。
文本生成
Transformers 英語

B
philschmid
141.28k
258
Financial Summarization Pegasus
基於彭博社2000篇金融新聞微調的PEGASUS模型,專為金融領域摘要生成優化
文本生成
Transformers 英語

F
human-centered-summarization
11.89k
135
Bart Large Xsum Samsum
Apache-2.0
這是一個基於BART架構的序列到序列模型,專門用於對話摘要生成任務。
文本生成
Transformers 英語

B
lidiya
10.96k
38
MEETING SUMMARY
Apache-2.0
基於BART架構的序列到序列模型,專門用於會議對話的抽象摘要生成,支持多語言會議記錄處理。
文本生成
Transformers 英語

M
knkarthick
32.45k
191
Meeting Summary Samsum
Apache-2.0
該模型是基於BART架構的seq2seq模型,專門用於對話摘要生成任務,在SAMSum數據集上微調獲得。
文本生成
Transformers 英語

M
knkarthick
25
9
Distilbart Cnn 12 6 Samsum
Apache-2.0
基於SAMSum數據集微調的輕量級對話摘要模型,使用亞馬遜SageMaker和Hugging Face容器訓練
文本生成
Transformers 英語

D
philschmid
284
20
Mt5 Small Sum De En V1
基於多語言T5模型的雙語摘要生成模型,支持英語和德語文本摘要任務
文本生成
Transformers 支持多種語言

M
deutsche-telekom
1,210
8
Bart Large Xsum Samsum
Apache-2.0
該模型是基於Samsum數據集微調的BART-large-xsum模型,專門用於對話摘要生成任務。
文本生成
Transformers 英語

B
knkarthick
14
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98