# 対話要約

Flan T5 Base Peft Dialogue Summary Before
Apache-2.0
google/flan-t5-baseモデルを基に、対話要約タスク向けにPEFT手法でパラメータ効率的にファインチューニングしたバージョン
テキスト生成 TensorBoard 英語
F
agoor97
20
0
Pegasus Finetuned Samsum
このモデルはgoogle/pegasus-cnn_dailymailをsamsumデータセットでファインチューニングしたテキスト要約モデルで、対話要約タスクに特化しています。
テキスト生成 Transformers 英語
P
avanishd
20
0
Summarisation Model
これはSAMSumデータセットでファインチューニングされたT5テキスト要約モデルで、対話や会話の要約タスクに適しています。
テキスト生成 Transformers
S
Saravanankumaran
16
0
T5 Small Finetuned Samsum
T5 Smallアーキテクチャを微調整した対話要約モデルで、Samsung/samsumデータセットに特化して最適化されており、簡潔で正確な対話要約を生成できます。
テキスト生成 TensorBoard
T
user10383
11
0
Summllama3.1 8B
SummLlama3.1-8BはLlama3.1-8B-Instructを初期化したテキスト要約モデルで、大規模な要約フィードバックを用いた直接選好最適化(DPO)トレーニングにより、忠実性、完全性、簡潔性の面で優れた性能を発揮します。
テキスト生成 Transformers
S
DISLab
116
10
Summllama3 70B
SummLlama3-70BはLlama3-70B-Instructをベースに初期化されたテキスト要約モデルで、大規模な要約フィードバックを用いたDPOトレーニングにより最適化され、忠実性、完全性、簡潔性の面で優れた性能を発揮します。
大規模言語モデル
S
DISLab
15
7
Chat Summarization
Apache-2.0
これはT5-baseアーキテクチャを基に、LoRA技術でファインチューニングされた対話要約モデルで、効率的な対話要約生成のために設計されています。
テキスト生成 英語
C
dnzblgn
15
0
Samsuntextsum
MIT
このモデルはPegasusアーキテクチャに基づき、SAMSUMデータセットでファインチューニングされた英語対話要約モデルです。
テキスト生成 Transformers 英語
S
neuronstarml
20
0
Flan T5 Base Samsum
Apache-2.0
このモデルはgoogle/flan-t5-baseをsamsum対話要約データセットでファインチューニングしたバージョンで、対話要約タスク専用に設計されています。
テキスト生成 Transformers
F
sharmax-vikas
26
0
Bart Large Cnn Samsum
MIT
BART-large-cnnをファインチューニングした英語対話要約モデルで、Samsung/samsumデータセットに最適化されています
テキスト生成 Transformers 英語
B
jngan
20
0
Pegasus Samsum
このモデルはsamsumデータセットでgoogle/pegasus-cnn_dailymailをファインチューニングしたバージョンで、主にテキスト要約タスクに使用されます。
テキスト生成 Transformers
P
Feluda
98
3
Bart Finetuned Samsum
BART-large-xsumを基にファインチューニングした対話要約モデルで、SamSum対話データセットに特化して最適化されています
テキスト生成 Transformers 英語
B
luisotorres
177
3
Bart Large Cnn Samsum
Apache-2.0
BART-largeアーキテクチャを基にSAMSumデータセットでファインチューニングされた対話要約生成モデル
テキスト生成 Transformers
B
AdamCodd
18
2
Long T5 Base Sumstew
Long-T5アーキテクチャに基づく要約生成モデルで、多言語テキスト要約タスクをサポートします。
テキスト生成 Transformers 複数言語対応
L
Joemgu
27
1
Flan T5 Base Samsum
Apache-2.0
Googleのflan-t5-baseモデルをsamsum対話要約データセットでファインチューニングしたテキスト生成モデルで、対話要約タスクに優れています
大規模言語モデル Transformers 英語
F
achimoraites
15
3
Bart Large Xsum Finetuned Samsum V2
MIT
このモデルは、facebook/bart-large-xsumをベースに、samsumデータセットで微調整されたテキスト要約生成モデルで、対話要約の生成に長けています。
テキスト生成 Transformers
B
amagzari
48
1
Flan T5 Large Stacked Samsum 1024
Apache-2.0
google/flan-t5-largeをベースにstacked-samsum-1024データセットで微調整した要約生成モデルで、スタック要約手法を用いて情報抽出能力を向上させています。
テキスト生成 Transformers 英語
F
stacked-summaries
16
10
T5 Dialogue Summarization
Apache-2.0
t5-smallをベースに微調整した対話要約生成モデルで、samsumデータセットで学習されました。
テキスト生成 Transformers
T
chanifrusydi
22
2
Bart Base Samsum
Apache-2.0
このモデルはBARTアーキテクチャに基づき、SAMSum対話データセットで微調整された抽象的なテキスト要約モデルで、対話要約の生成に特化しています。
テキスト生成 Transformers 英語
B
lidiya
77
4
Distilbart Cnn 12 6 Samsum
Apache-2.0
SAMSumデータセットを基に微調整された軽量級の対話要約モデルで、アマゾンSageMakerとHugging Faceコンテナを使用して訓練されました。
テキスト生成 Transformers 英語
D
philschmid
284
20
Bart Large Samsum
Apache-2.0
BART-largeアーキテクチャに基づいて微調整された対話要約生成モデルで、SAMSumデータセットでトレーニングされ、対話テキストの要約に特化して最適化されています。
テキスト生成 Transformers 英語
B
linydub
670
16
Dialogled Base 16384
DialogLMは、Longformer-Encoder-Decoder(LED)アーキテクチャに基づく事前学習モデルで、長い対話理解と要約タスク用に設計されています。
大規模言語モデル Transformers その他
D
MingZhong
566
6
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase