# テキスト要約の最適化

Qwen3 0.6B TLDR Lora
Apache-2.0
Qwen3-0.6BはTransformerアーキテクチャに基づくオープンソースの言語モデルで、6億のパラメータ規模を持ち、テキスト要約などの自然言語処理タスクに適しています。
テキスト生成
Q
phh
56
0
Text Summarization Q4 K M GGUF
Apache-2.0
これはFalconsai/text_summarizationモデルから変換されたGGUF形式のテキスト要約モデルで、llama.cppを使用した推論に適しています。
テキスト生成 英語
T
tonyc666
16
0
Summllama3.1 8B GGUF
Llama3アーキテクチャを最適化した8Bパラメータの要約生成モデルで、複数の量子化バージョンを提供
大規模言語モデル
S
tensorblock
52
0
Ppo Tldr
EleutherAI_pythia-1b-dedupedモデルをファインチューニングしたバージョンで、簡潔な要約を生成するために使用されます
大規模言語モデル Transformers
P
vwxyzjn
15
1
Paraphrase MiniLM L6 V2 Finetune Summary
sentence-transformersに基づく文の埋め込みモデルで、テキストを384次元のベクトル空間にマッピングでき、意味的検索とテキストの類似度計算に適しています。
テキスト埋め込み Transformers
P
tonychenxyz
20
1
Pegasus Billsum
PEGASUSは、間隔文を抽出することに基づく抽象要約事前学習モデルで、高品質のテキスト要約の生成に特化しています。
テキスト生成 Transformers 英語
P
google
295
4
Distilbart Cnn 12 6
Apache-2.0
DistilBARTはBARTモデルの蒸留バージョンで、テキスト要約タスクに特化して最適化されており、高い性能を維持しながら推論速度を大幅に向上させています。
テキスト生成 英語
D
sshleifer
783.96k
278
Pegasus Reddit Tifu
PEGASUSは、間隔文を抽出することに基づく事前学習モデルで、抽象要約生成タスクに特化しています。
テキスト生成 Transformers 英語
P
google
17
3
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase