# 對話摘要

Flan T5 Base Peft Dialogue Summary Before
Apache-2.0
基於google/flan-t5-base模型在對話摘要任務上的微調版本,使用PEFT方法進行參數高效微調
文本生成 TensorBoard 英語
F
agoor97
20
0
Pegasus Finetuned Samsum
該模型是基於google/pegasus-cnn_dailymail在samsum數據集上微調的文本摘要模型,專門用於對話摘要任務。
文本生成 Transformers 英語
P
avanishd
20
0
Summarisation Model
這是一個基於SAMSum數據集微調的T5文本摘要模型,適用於對話和會話的摘要任務。
文本生成 Transformers
S
Saravanankumaran
16
0
T5 Small Finetuned Samsum
基於T5 Small架構微調的對話摘要模型,專門針對Samsung/samsum數據集優化,能夠生成簡潔準確的對話摘要。
文本生成 TensorBoard
T
user10383
11
0
Conversation Summarizer V2
MIT
基於微調的 Llama 3.2 (3B) 的對話摘要模型,專門用於生成對話的簡潔摘要。
文本生成 英語
C
dkp2701
17
1
Summllama3.1 8B
SummLlama3.1-8B是基於Llama3.1-8B-Instruct初始化的文本摘要模型,通過大規模摘要反饋的直接偏好優化(DPO)訓練,在忠實性、完整性和簡潔性方面表現優異。
文本生成 Transformers
S
DISLab
116
10
Summllama3 70B
SummLlama3-70B是基於Llama3-70B-Instruct初始化的文本摘要模型,通過大規模摘要反饋的DPO訓練優化,在忠實性、完整性和簡潔性方面表現優異。
大型語言模型
S
DISLab
15
7
Chat Summarization
Apache-2.0
這是一個基於T5-base架構,使用LoRA技術微調的對話摘要模型,專為高效生成對話摘要而設計。
文本生成 英語
C
dnzblgn
15
0
Samsuntextsum
MIT
該模型是基於 Pegasus 架構,在 SAMSUM 數據集上微調得到的英語對話摘要模型。
文本生成 Transformers 英語
S
neuronstarml
20
0
Flan T5 Base Samsum
Apache-2.0
該模型是基於google/flan-t5-base在samsum對話摘要數據集上微調的版本,專門用於生成對話摘要任務。
文本生成 Transformers
F
sharmax-vikas
26
0
Bart Large Cnn Samsum
MIT
基於BART-large-cnn微調的英語對話摘要模型,專門針對Samsung/samsum數據集優化
文本生成 Transformers 英語
B
jngan
20
0
Pegasus Samsum
該模型是在samsum數據集上對google/pegasus-cnn_dailymail進行微調的版本,主要用於文本摘要任務。
文本生成 Transformers
P
Feluda
98
3
Bart Finetuned Samsum
基於BART-large-xsum微調的對話摘要模型,專門針對SamSum對話數據集優化
文本生成 Transformers 英語
B
luisotorres
177
3
Bart Large Cnn Samsum
Apache-2.0
基於BART-large架構微調的對話摘要生成模型,在SAMSum數據集上訓練
文本生成 Transformers
B
AdamCodd
18
2
Long T5 Base Sumstew
基於Long-T5架構的摘要生成模型,支持多語言文本摘要任務。
文本生成 Transformers 支持多種語言
L
Joemgu
27
1
Flan T5 Base Samsum
Apache-2.0
基於Google的flan-t5-base模型在samsum對話摘要數據集上微調的文本生成模型,擅長對話摘要任務
大型語言模型 Transformers 英語
F
achimoraites
15
3
Bart Large Xsum Finetuned Samsum V2
MIT
該模型是基於facebook/bart-large-xsum在samsum數據集上微調的文本摘要生成模型,擅長生成對話摘要。
文本生成 Transformers
B
amagzari
48
1
Flan T5 Large Stacked Samsum 1024
Apache-2.0
基於google/flan-t5-large在stacked-samsum-1024數據集上微調的摘要生成模型,採用堆疊摘要方法改進信息提煉能力
文本生成 Transformers 英語
F
stacked-summaries
16
10
T5 Dialogue Summarization
Apache-2.0
基於t5-small微調的對話摘要生成模型,在samsum數據集上訓練
文本生成 Transformers
T
chanifrusydi
22
2
Bart Summarisation
Apache-2.0
基於BART-large架構的對話摘要模型,專門針對SAMSum對話數據集進行微調,能夠生成高質量的對話摘要。
文本生成 Transformers 英語
B
slauw87
4,225
59
Bart Base Samsum
Apache-2.0
該模型是基於BART架構,在SAMSum對話數據集上微調的抽象文本摘要模型,專門用於生成對話摘要。
文本生成 Transformers 英語
B
lidiya
77
4
Bart Base Samsum
Apache-2.0
基於BART-base架構的對話摘要模型,使用Amazon SageMaker和Hugging Face深度學習容器訓練,適用於SAMSum數據集。
文本生成 Transformers 英語
B
philschmid
23
3
Distilbart Cnn 12 6 Samsum
Apache-2.0
基於SAMSum數據集微調的輕量級對話摘要模型,使用亞馬遜SageMaker和Hugging Face容器訓練
文本生成 Transformers 英語
D
philschmid
284
20
Bart Large Samsum
Apache-2.0
基於BART-large架構微調的對話摘要生成模型,在SAMSum數據集上訓練,專為對話文本摘要優化
文本生成 Transformers 英語
B
linydub
670
16
Dialogled Large 5120
DialogLM是基於長文本編碼器-解碼器(LED)架構的預訓練模型,專為長對話理解與摘要任務設計。
大型語言模型 Transformers 其他
D
MingZhong
441
7
Dialogled Base 16384
DialogLM是基於Longformer-Encoder-Decoder(LED)架構的預訓練模型,專為長對話理解與摘要任務設計。
大型語言模型 Transformers 其他
D
MingZhong
566
6
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase