Flan T5 Base Peft Dialogue Summary Before
Apache-2.0
基於google/flan-t5-base模型在對話摘要任務上的微調版本,使用PEFT方法進行參數高效微調
文本生成
TensorBoard 英語

F
agoor97
20
0
Pegasus Finetuned Samsum
該模型是基於google/pegasus-cnn_dailymail在samsum數據集上微調的文本摘要模型,專門用於對話摘要任務。
文本生成
Transformers 英語

P
avanishd
20
0
Summarisation Model
這是一個基於SAMSum數據集微調的T5文本摘要模型,適用於對話和會話的摘要任務。
文本生成
Transformers

S
Saravanankumaran
16
0
T5 Small Finetuned Samsum
基於T5 Small架構微調的對話摘要模型,專門針對Samsung/samsum數據集優化,能夠生成簡潔準確的對話摘要。
文本生成
TensorBoard

T
user10383
11
0
Conversation Summarizer V2
MIT
基於微調的 Llama 3.2 (3B) 的對話摘要模型,專門用於生成對話的簡潔摘要。
文本生成 英語
C
dkp2701
17
1
Summllama3.1 8B
SummLlama3.1-8B是基於Llama3.1-8B-Instruct初始化的文本摘要模型,通過大規模摘要反饋的直接偏好優化(DPO)訓練,在忠實性、完整性和簡潔性方面表現優異。
文本生成
Transformers

S
DISLab
116
10
Summllama3 70B
SummLlama3-70B是基於Llama3-70B-Instruct初始化的文本摘要模型,通過大規模摘要反饋的DPO訓練優化,在忠實性、完整性和簡潔性方面表現優異。
大型語言模型
S
DISLab
15
7
Chat Summarization
Apache-2.0
這是一個基於T5-base架構,使用LoRA技術微調的對話摘要模型,專為高效生成對話摘要而設計。
文本生成 英語
C
dnzblgn
15
0
Samsuntextsum
MIT
該模型是基於 Pegasus 架構,在 SAMSUM 數據集上微調得到的英語對話摘要模型。
文本生成
Transformers 英語

S
neuronstarml
20
0
Flan T5 Base Samsum
Apache-2.0
該模型是基於google/flan-t5-base在samsum對話摘要數據集上微調的版本,專門用於生成對話摘要任務。
文本生成
Transformers

F
sharmax-vikas
26
0
Bart Large Cnn Samsum
MIT
基於BART-large-cnn微調的英語對話摘要模型,專門針對Samsung/samsum數據集優化
文本生成
Transformers 英語

B
jngan
20
0
Pegasus Samsum
該模型是在samsum數據集上對google/pegasus-cnn_dailymail進行微調的版本,主要用於文本摘要任務。
文本生成
Transformers

P
Feluda
98
3
Bart Finetuned Samsum
基於BART-large-xsum微調的對話摘要模型,專門針對SamSum對話數據集優化
文本生成
Transformers 英語

B
luisotorres
177
3
Bart Large Cnn Samsum
Apache-2.0
基於BART-large架構微調的對話摘要生成模型,在SAMSum數據集上訓練
文本生成
Transformers

B
AdamCodd
18
2
Long T5 Base Sumstew
基於Long-T5架構的摘要生成模型,支持多語言文本摘要任務。
文本生成
Transformers 支持多種語言

L
Joemgu
27
1
Flan T5 Base Samsum
Apache-2.0
基於Google的flan-t5-base模型在samsum對話摘要數據集上微調的文本生成模型,擅長對話摘要任務
大型語言模型
Transformers 英語

F
achimoraites
15
3
Bart Large Xsum Finetuned Samsum V2
MIT
該模型是基於facebook/bart-large-xsum在samsum數據集上微調的文本摘要生成模型,擅長生成對話摘要。
文本生成
Transformers

B
amagzari
48
1
Flan T5 Large Stacked Samsum 1024
Apache-2.0
基於google/flan-t5-large在stacked-samsum-1024數據集上微調的摘要生成模型,採用堆疊摘要方法改進信息提煉能力
文本生成
Transformers 英語

F
stacked-summaries
16
10
T5 Dialogue Summarization
Apache-2.0
基於t5-small微調的對話摘要生成模型,在samsum數據集上訓練
文本生成
Transformers

T
chanifrusydi
22
2
Bart Summarisation
Apache-2.0
基於BART-large架構的對話摘要模型,專門針對SAMSum對話數據集進行微調,能夠生成高質量的對話摘要。
文本生成
Transformers 英語

B
slauw87
4,225
59
Bart Base Samsum
Apache-2.0
該模型是基於BART架構,在SAMSum對話數據集上微調的抽象文本摘要模型,專門用於生成對話摘要。
文本生成
Transformers 英語

B
lidiya
77
4
Bart Base Samsum
Apache-2.0
基於BART-base架構的對話摘要模型,使用Amazon SageMaker和Hugging Face深度學習容器訓練,適用於SAMSum數據集。
文本生成
Transformers 英語

B
philschmid
23
3
Distilbart Cnn 12 6 Samsum
Apache-2.0
基於SAMSum數據集微調的輕量級對話摘要模型,使用亞馬遜SageMaker和Hugging Face容器訓練
文本生成
Transformers 英語

D
philschmid
284
20
Bart Large Samsum
Apache-2.0
基於BART-large架構微調的對話摘要生成模型,在SAMSum數據集上訓練,專為對話文本摘要優化
文本生成
Transformers 英語

B
linydub
670
16
Dialogled Large 5120
DialogLM是基於長文本編碼器-解碼器(LED)架構的預訓練模型,專為長對話理解與摘要任務設計。
大型語言模型
Transformers 其他

D
MingZhong
441
7
Dialogled Base 16384
DialogLM是基於Longformer-Encoder-Decoder(LED)架構的預訓練模型,專為長對話理解與摘要任務設計。
大型語言模型
Transformers 其他

D
MingZhong
566
6
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98