Huihui Ai.deepseek R1 Distill Qwen 32B Abliterated GGUF
这是一个量化版本的大语言模型,旨在让知识更易于获取和使用。
大型语言模型
H
DevQuasar
572
3
Deepseek Ai.deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1-Distill-Llama-8B 是一个基于 Llama 架构的 8B 参数规模的大型语言模型,经过蒸馏训练优化,适用于文本生成任务。
大型语言模型
D
DevQuasar
320
3
SSD 1B
Apache-2.0
SSD-1B是稳定扩散XL(SDXL)的蒸馏缩小50%版本,在保持高质量文本生成图像能力的同时,提供60%的速度提升。
图像生成
S
segmind
35.08k
812
Sphilberta
Apache-2.0
SPhilBERTa是一个专为古典文献学设计的句子转换器模型,用于识别拉丁文与古希腊文文本间的跨语言引用。
文本嵌入 支持多种语言
S
bowphs
1,328
6
Semantic Xlmr
基于sentence-transformers的多语言句子嵌入模型,特别针对孟加拉语进行优化,适用于语义相似度计算和聚类分析
文本嵌入
Transformers

S
headlesstech
28
0
Distilbert Base Cased Distilled Squad Finetuned Squad
Apache-2.0
该模型是基于distilbert-base-cased-distilled-squad微调的版本,适用于问答任务
问答系统
Transformers

D
ms12345
14
0
Distilbert Onnx
Apache-2.0
这是一个基于DistilBERT-base-cased模型,通过知识蒸馏技术在SQuAD v1.1数据集上微调得到的问答模型。
问答系统
Transformers 英语

D
philschmid
8,650
2
Distilgpt2
Apache-2.0
DistilGPT2是GPT-2的轻量级蒸馏版本,拥有8200万参数,保留了GPT-2的核心文本生成能力,同时体积更小、速度更快。
大型语言模型 英语
D
distilbert
2.7M
527
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98