# 知識蒸留モデル

Huihui Ai.deepseek R1 Distill Qwen 32B Abliterated GGUF
これは量子化バージョンの大規模言語モデルで、知識をより簡単に取得して利用できるようにすることを目的としています。
大規模言語モデル
H
DevQuasar
572
3
Deepseek Ai.deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1-Distill-Llama-8B は、Llama アーキテクチャに基づく 8B パラメータ規模の大規模言語モデルで、蒸留トレーニングによって最適化され、テキスト生成タスクに適しています。
大規模言語モデル
D
DevQuasar
320
3
SSD 1B
Apache-2.0
SSD-1Bは安定拡散XL(SDXL)の蒸留版で、50%小型化されながら、高品質なテキストから画像生成能力を保持し、60%の速度向上を提供します。
画像生成
S
segmind
35.08k
812
Sphilberta
Apache-2.0
SPhilBERTaは古典文献学専用に設計された文変換モデルで、ラテン語と古代ギリシャ語テキスト間の言語間引用を識別します。
テキスト埋め込み 複数言語対応
S
bowphs
1,328
6
Semantic Xlmr
sentence-transformersベースの多言語文埋め込みモデルで、特にベンガル語に最適化されており、意味的類似性計算やクラスタリング分析に適しています
テキスト埋め込み Transformers
S
headlesstech
28
0
Distilbert Base Cased Distilled Squad Finetuned Squad
Apache-2.0
このモデルはdistilbert-base-cased-distilled-squadをファインチューニングしたバージョンで、質問応答タスクに適しています
質問応答システム Transformers
D
ms12345
14
0
Distilbert Onnx
Apache-2.0
これはDistilBERT-base-casedモデルをベースに、知識蒸留技術を用いてSQuAD v1.1データセットでファインチューニングされた質問応答モデルです。
質問応答システム Transformers 英語
D
philschmid
8,650
2
Distilgpt2
Apache-2.0
DistilGPT2はGPT - 2の軽量級蒸留バージョンで、8200万のパラメータを持ち、GPT - 2の核心的なテキスト生成能力を保持しながら、サイズが小さく、速度が速い。
大規模言語モデル 英語
D
distilbert
2.7M
527
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase