# 知识蒸馏模型

Huihui Ai.deepseek R1 Distill Qwen 32B Abliterated GGUF
这是一个量化版本的大语言模型,旨在让知识更易于获取和使用。
大型语言模型
H
DevQuasar
572
3
Deepseek Ai.deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1-Distill-Llama-8B 是一个基于 Llama 架构的 8B 参数规模的大型语言模型,经过蒸馏训练优化,适用于文本生成任务。
大型语言模型
D
DevQuasar
320
3
SSD 1B
Apache-2.0
SSD-1B是稳定扩散XL(SDXL)的蒸馏缩小50%版本,在保持高质量文本生成图像能力的同时,提供60%的速度提升。
图像生成
S
segmind
35.08k
812
Sphilberta
Apache-2.0
SPhilBERTa是一个专为古典文献学设计的句子转换器模型,用于识别拉丁文与古希腊文文本间的跨语言引用。
文本嵌入 支持多种语言
S
bowphs
1,328
6
Semantic Xlmr
基于sentence-transformers的多语言句子嵌入模型,特别针对孟加拉语进行优化,适用于语义相似度计算和聚类分析
文本嵌入 Transformers
S
headlesstech
28
0
Distilbert Base Cased Distilled Squad Finetuned Squad
Apache-2.0
该模型是基于distilbert-base-cased-distilled-squad微调的版本,适用于问答任务
问答系统 Transformers
D
ms12345
14
0
Distilbert Onnx
Apache-2.0
这是一个基于DistilBERT-base-cased模型,通过知识蒸馏技术在SQuAD v1.1数据集上微调得到的问答模型。
问答系统 Transformers 英语
D
philschmid
8,650
2
Distilgpt2
Apache-2.0
DistilGPT2是GPT-2的轻量级蒸馏版本,拥有8200万参数,保留了GPT-2的核心文本生成能力,同时体积更小、速度更快。
大型语言模型 英语
D
distilbert
2.7M
527
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase