# 知識蒸餾模型

Huihui Ai.deepseek R1 Distill Qwen 32B Abliterated GGUF
這是一個量化版本的大語言模型,旨在讓知識更易於獲取和使用。
大型語言模型
H
DevQuasar
572
3
Deepseek Ai.deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1-Distill-Llama-8B 是一個基於 Llama 架構的 8B 參數規模的大型語言模型,經過蒸餾訓練優化,適用於文本生成任務。
大型語言模型
D
DevQuasar
320
3
SSD 1B
Apache-2.0
SSD-1B是穩定擴散XL(SDXL)的蒸餾縮小50%版本,在保持高質量文本生成圖像能力的同時,提供60%的速度提升。
圖像生成
S
segmind
35.08k
812
Sphilberta
Apache-2.0
SPhilBERTa是一個專為古典文獻學設計的句子轉換器模型,用於識別拉丁文與古希臘文文本間的跨語言引用。
文本嵌入 支持多種語言
S
bowphs
1,328
6
Semantic Xlmr
基於sentence-transformers的多語言句子嵌入模型,特別針對孟加拉語進行優化,適用於語義相似度計算和聚類分析
文本嵌入 Transformers
S
headlesstech
28
0
Distilbert Base Cased Distilled Squad Finetuned Squad
Apache-2.0
該模型是基於distilbert-base-cased-distilled-squad微調的版本,適用於問答任務
問答系統 Transformers
D
ms12345
14
0
Distilbert Onnx
Apache-2.0
這是一個基於DistilBERT-base-cased模型,通過知識蒸餾技術在SQuAD v1.1數據集上微調得到的問答模型。
問答系統 Transformers 英語
D
philschmid
8,650
2
Distilgpt2
Apache-2.0
DistilGPT2是GPT-2的輕量級蒸餾版本,擁有8200萬參數,保留了GPT-2的核心文本生成能力,同時體積更小、速度更快。
大型語言模型 英語
D
distilbert
2.7M
527
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase