Qwen3 0.6B TLDR Lora
Apache-2.0
Qwen3-0.6BはTransformerアーキテクチャに基づくオープンソースの言語モデルで、6億のパラメータ規模を持ち、テキスト要約などの自然言語処理タスクに適しています。
テキスト生成
Q
phh
56
0
Text Summarization Q4 K M GGUF
Apache-2.0
これはFalconsai/text_summarizationモデルから変換されたGGUF形式のテキスト要約モデルで、llama.cppを使用した推論に適しています。
テキスト生成 英語
T
tonyc666
16
0
Summllama3.1 8B GGUF
Llama3アーキテクチャを最適化した8Bパラメータの要約生成モデルで、複数の量子化バージョンを提供
大規模言語モデル
S
tensorblock
52
0
Ppo Tldr
EleutherAI_pythia-1b-dedupedモデルをファインチューニングしたバージョンで、簡潔な要約を生成するために使用されます
大規模言語モデル
Transformers

P
vwxyzjn
15
1
Paraphrase MiniLM L6 V2 Finetune Summary
sentence-transformersに基づく文の埋め込みモデルで、テキストを384次元のベクトル空間にマッピングでき、意味的検索とテキストの類似度計算に適しています。
テキスト埋め込み
Transformers

P
tonychenxyz
20
1
Pegasus Billsum
PEGASUSは、間隔文を抽出することに基づく抽象要約事前学習モデルで、高品質のテキスト要約の生成に特化しています。
テキスト生成
Transformers 英語

P
google
295
4
Distilbart Cnn 12 6
Apache-2.0
DistilBARTはBARTモデルの蒸留バージョンで、テキスト要約タスクに特化して最適化されており、高い性能を維持しながら推論速度を大幅に向上させています。
テキスト生成 英語
D
sshleifer
783.96k
278
Pegasus Reddit Tifu
PEGASUSは、間隔文を抽出することに基づく事前学習モデルで、抽象要約生成タスクに特化しています。
テキスト生成
Transformers 英語

P
google
17
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98