Huihui Ai.magistral Small 2506 Abliterated GGUF
慧慧AI量化模型是Magistral-Small-2506-abliterated的量化版本,致力于让知识为每个人所用。
大型语言模型
H
DevQuasar
423
1
Deepseek R1 0528 Qwen3 8B AWQ 4bit
MIT
DeepSeek-R1-0528-Qwen3-8B的AWQ量化版本,适用于特定场景下的高效推理。
大型语言模型
Transformers

D
hxac
179
2
PKU DS LAB.FairyR1 32B GGUF
FairyR1-32B 是一个32B参数规模的大型语言模型,由PKU-DS-LAB开发,专注于文本生成任务。
大型语言模型
P
DevQuasar
134
1
Dmindai.dmind 1 GGUF
DMind-1 是一个文本生成基础模型,致力于让知识自由传播。
大型语言模型
D
DevQuasar
226
1
Dmindai.dmind 1 Mini GGUF
DMind-1-mini 是一个轻量级的文本生成模型,适用于多种自然语言处理任务。
文本生成
D
DevQuasar
213
1
Ytu Ce Cosmos.turkish Gemma 9b V0.1 GGUF
一个基于Gemma架构的土耳其语大语言模型,专注于文本生成任务。
大型语言模型
Y
DevQuasar
247
1
Nvidia.cosmos Reason1 7B GGUF
Cosmos-Reason1-7B是英伟达发布的7B参数规模的基础模型,专注于图文转文本任务。
大型语言模型
N
DevQuasar
287
1
Qwen2.5 7b SFT Three Subtasks 3epoch
这是一个基于🤗 transformers库的模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

Q
mjfmark
97
1
Ko Gemma 3 12b
这是一个在Hugging Face Hub上发布的transformers模型,具体功能和用途待补充。
大型语言模型
Transformers

K
davidkim205
126
1
Allenai.olmo 2 0425 1B Instruct GGUF
OLMo-2-0425-1B-Instruct是由AllenAI开发的一个10亿参数规模的指令微调语言模型,专注于文本生成任务。
大型语言模型
A
DevQuasar
220
1
Seed Coder 8B Reasoning
MIT
Seed-Coder-8B-推理版是一个8B规模的开源代码模型,通过强化学习提升推理能力,支持65,536的上下文长度,在编程任务上表现优异。
大型语言模型
Transformers

S
ByteDance-Seed
4,622
102
Huihui Ai.glm 4 32B 0414 Abliterated GGUF
GLM-4-32B-0414-abliterated 是一个基于 GLM 架构的大规模语言模型,参数规模为 32B,适用于文本生成任务。
大型语言模型
H
DevQuasar
623
2
Alibaba Pai.distilqwen2.5 DS3 0324 32B GGUF
阿里巴巴PAI发布的轻量化版本Qwen2.5大语言模型,专注于高效文本生成任务
大型语言模型
A
DevQuasar
1,117
4
Openba V1 Based
Apache-2.0
OpenBA 是一个开源的 150 亿参数双语非对称序列到序列模型,从头开始预训练。
大型语言模型
Transformers 支持多种语言

O
OpenNLG
94
10
Internvl2 5 8B MPO Hf
这是一个已发布在模型中心的Transformers模型,具体功能和用途待补充。
大型语言模型
Transformers

I
OpenGVLab
528
0
Deepseek Ai.deepseek V3 0324 GGUF
DeepSeek-V3-0324 是一个强大的基础模型,专注于文本生成任务,旨在提供高质量的文本生成能力。
大型语言模型
D
DevQuasar
2,850
2
Qwen.qwen2 VL 2B GGUF
Qwen2-VL-2B是一个多模态模型,能够处理图像和文本输入,生成文本输出。
图像生成文本
Q
DevQuasar
127
0
Coderankembed Q8 0 GGUF
MIT
本模型是nomic-ai/CodeRankEmbed的GGUF格式转换版本,适用于代码相关任务。
文本嵌入
C
awhiteside
16
1
Instantid FaceID 70K
基于FaceID-6M数据集训练的人脸ID定制模型,支持根据文本描述生成定制化人脸图像。
图像生成
I
Super-shuhe
17
1
Medgpt
这是一个由Hugging Face发布的Transformers模型,具体功能和用途待补充。
大型语言模型
Transformers

M
Rabbiaaa
1,603
1
Starcoder2 3b GGUF
Openrail
StarCoder2-3B 是一个专注于代码生成的3B参数量的开源模型,由BigCode团队开发。
大型语言模型
Transformers 其他

S
tensorblock
103
1
Yi Coder 9B Chat
Apache-2.0
Yi-Coder是一系列开源代码语言模型,在不足100亿参数的情况下实现了最先进的编码性能。
大型语言模型
Transformers

Y
01-ai
2,247
202
Stable Diffusion 2 1 GGUF
Stable Diffusion 2.1的GGUF量化版本,支持多种量化精度,适用于文本生成图像任务。
图像生成
S
second-state
682
4
Wizardcoder Python 7B V1.0
WizardCoder-Python-34B-V1.0 是一个高性能的代码生成模型,基于Llama2架构,专注于Python代码生成任务。
大型语言模型
Transformers 其他

W
vanillaOVO
2,206
1
Gemma
Gemma是一款先进的开源模型,基于高质量数据集训练,支持不同上下文长度需求。
大型语言模型
G
cortexso
295
1
Ftaudit Llama3 8b V1
Llama-3 是一个基于 Transformer 架构的大语言模型,支持英语语言处理。
大型语言模型
Transformers 英语

F
weifar
32
2
RMBG
Apache-2.0
基于Apache-2.0许可证的开源模型,具体功能和用途需参考完整文档
大型语言模型
Transformers

R
ModelsLab
144
0
Internlm2 Math Plus 1 8b
其他
InternLM-Math-Plus 是最先进的双语开源数学推理大语言模型,具备求解、证明、验证和增强等功能,为数学推理领域提供强大支持。
大型语言模型
Transformers 支持多种语言

I
internlm
437
11
Llama 3 8B Instruct QServe G128
Llama 3 是 Meta 公司推出的下一代开源大语言模型,具有更强的性能和更广泛的应用场景。
大型语言模型
Transformers

L
mit-han-lab
197
2
Lawyer Llama 13b V2
Lawyer LLaMA 是一个基于 LLaMA 架构的法律领域大语言模型,专注于中文法律任务。
大型语言模型
Transformers 中文

L
pkupie
200
12
Llava NeXT Video 7B DPO
LLaVA-Next-Video 是一个开源的多模态对话模型,通过对大语言模型进行多模态指令跟随数据的微调训练而成,支持视频和文本的多模态交互。
文本生成视频
Transformers

L
lmms-lab
8,049
27
Prometheus Bgb 8x7b V2.0
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

P
prometheus-eval
772
6
Microllama
Apache-2.0
MicroLlama是一个由个人开发者keeeeenw在500美元预算内预训练的3亿参数Llama模型,专注于英语文本生成任务。
大型语言模型
Transformers 英语

M
keeeeenw
2,955
46
Splade V3 Doc
SPLADE-v3-Doc 是 SPLADE 模型的文档版本,专注于文档端推理,适用于信息检索等场景。
文本嵌入
Transformers 英语

S
naver
2,223
1
Vikhr 7B Instruct 0.2
Vikhr是一个双语(俄语和英语)开源指令跟随大型语言模型,专门为俄语用户设计,能够进行对话和任务协助。
大型语言模型
Transformers 支持多种语言

V
Vikhrmodels
76
22
Llava V1.6 Vicuna 13b
LLaVA 是一个开源的多模态聊天机器人,通过对多模态指令跟随数据进行大型语言模型微调训练而成。
图像生成文本
Transformers

L
liuhaotian
7,080
56
Openchat 3.5 0106 GGUF
Apache-2.0
Openchat 3.5 0106 是一个基于Mistral架构的开源对话模型,由OpenChat团队开发。该模型专注于提供高质量的对话体验,支持多种对话任务。
大型语言模型
O
TheBloke
4,268
72
Vit L 14 336
MIT
基于Vision Transformer架构的大规模视觉语言模型,支持零样本图像分类任务
图像分类
V
asakhare
20
0
Dolphin 2.7 Mixtral 8x7b AWQ
Apache-2.0
Dolphin 2.7 Mixtral 8X7B 是一个基于Mixtral架构的大型语言模型,专注于代码生成和指令跟随任务。
大型语言模型
Transformers 英语

D
TheBloke
5,839
22
Mixtral 7b 8expert
Apache-2.0
MistralAI最新发布的混合专家(MoE)模型,支持多语言文本生成任务
大型语言模型
Transformers 支持多种语言

M
DiscoResearch
57.47k
264
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98