Acereason Nemotron 14B GGUF
AceReason-Nemotron-14B是一个通过强化学习训练的数学和代码推理模型,在多个数学和代码推理基准测试中表现出色。
大型语言模型
Transformers

A
QuantFactory
326
2
Acereason Nemotron 7B GGUF
AceReason-Nemotron-7B是一个基于强化学习训练的数学和代码推理模型,从DeepSeek-R1-Distilled-Qwen-7B开始训练,在多个基准测试中表现出色。
大型语言模型
Transformers

A
QuantFactory
326
2
Areal Boba 2 8B
Apache-2.0
AReaL是由蚂蚁科技集团开发的异步强化学习训练系统,专为大型推理模型设计,支持快速训练和前沿性能。
大型语言模型
Transformers

A
inclusionAI
1,294
2
The Teacher
基于Qwen3-1.7B微调,通过强化学习技术提升数学推理能力的语言模型
大型语言模型
Safetensors 英语
T
shiviktech
824
0
Murai 350M V0.1 Beta
Apache-2.0
这是一个基于transformers库构建的文本生成模型,具备高效的参数架构和出色的文本生成能力。
大型语言模型
Transformers

M
DeepMount00
140
1
Devstral Small 2505.w4a16 Gptq
Apache-2.0
这是一个基于mistralai/Devstral-Small-2505模型的4位GPTQ量化版本,专为消费级硬件优化。
大型语言模型
Safetensors
D
mratsim
557
1
Acereason Nemotron 7B
其他
通过强化学习训练的数学与代码推理模型,基于DeepSeek-R1-Distilled-Qwen-7B,在数学和代码推理任务上表现优异
大型语言模型
Transformers

A
nvidia
4,278
10
SWE Agent LM 32B GGUF
Apache-2.0
SWE-agent-LM-32B是一个开源的软件工程语言模型,基于Qwen/Qwen2.5-Coder-32B-Instruct微调,专为软件工程任务设计。
大型语言模型
Transformers 英语

S
Mungert
2,933
1
Marin 8b Instruct
Apache-2.0
Marin 8B是一个开源的8B参数规模的大型语言模型,基于Llama架构开发,支持英语文本生成任务。
大型语言模型 英语
M
marin-community
239
1
Seed Coder Triton 8b V1
MIT
基于ByteDance-Seed/Seed-Coder-8B-Base模型在特定数据集上微调的大语言模型,支持长序列输入和高效训练策略。
大型语言模型
Transformers

S
winglian
1,388
1
Seed Coder 8B Reasoning Bf16
MIT
Seed-Coder是一个8B规模的开源代码模型家族,包含基础版、指导版和推理版。推理版通过强化学习训练提升推理能力,支持64K上下文长度。
大型语言模型
Transformers

S
ByteDance-Seed
4,382
9
Falcon H1 34B Instruct GPTQ Int8
其他
猎鹰-H1是由TII开发的高性能混合架构语言模型,结合了Transformers和Mamba架构的优势,支持英语和多语言任务。
大型语言模型
Transformers

F
tiiuae
105
3
Andrewzh Absolute Zero Reasoner Coder 14b GGUF
基于andrewzh的Absolute_Zero_Reasoner-Coder-14b模型,使用llama.cpp进行imatrix量化的版本,适用于推理和代码生成任务。
大型语言模型
A
bartowski
1,995
5
Falcon H1 1.5B Base
其他
Falcon-H1是由TII开发的混合Transformers + Mamba架构的仅解码因果模型,支持英语和多语言任务。
大型语言模型
Transformers 支持多种语言

F
tiiuae
454
2
Phi 4 Reasoning Plus
MIT
Phi-4推理增强版是微软研究院开发的140亿参数开源推理模型,通过监督微调和强化学习优化,专注于数学、科学和编程领域的高级推理能力。
大型语言模型
Transformers 支持多种语言

P
unsloth
189
2
GLM 4 9B 0414 GGUF
MIT
GLM-4-9B-0414是GLM家族中的轻量级成员,拥有90亿参数,在数学推理和通用任务上表现出色,为资源受限场景提供了高效的解决方案。
大型语言模型 支持多种语言
G
unsloth
4,291
9
Granite 4.0 Tiny Preview
Apache-2.0
Granite-4-Tiny-Preview 是一个拥有70亿参数的细粒度混合专家(MoE)指令微调模型,基于 Granite-4.0-Tiny-Base-Preview 开发,适用于通用指令跟随任务。
大型语言模型
Transformers

G
ibm-granite
7,906
108
Olympiccoder 7B GGUF
Apache-2.0
OlympicCoder-7B是基于Qwen2.5-Coder-7B-Instruct优化的代码生成模型,采用IQ-DynamicGate超低比特量化技术,专为内存受限环境设计。
大型语言模型 英语
O
Mungert
849
3
Qwen2.5 Recursive Coder 14B Instruct
Apache-2.0
基于Qwen2.5架构的14B参数规模代码生成与理解模型,通过Model Stock方法融合多个专业编码模型而成
大型语言模型
Transformers

Q
spacematt
39
2
Deepcoder 14B Preview GGUF
MIT
采用IQ-DynamicGate技术的超低位量化(1-2比特)模型,适用于内存受限设备和边缘计算场景
大型语言模型 英语
D
Mungert
1,764
6
Qwen2.5 CompositeFlow Coder 14B Instruct
Apache-2.0
基于Qwen2.5-Coder-14B-Instruct基础模型,通过mergekit工具合并多个专业编码模型的混合模型
大型语言模型
Transformers

Q
spacematt
31
3
GLM 4 32B Base 0414
MIT
GLM-4-32B-Base-0414是320亿参数规模的大语言模型,基于15T高质量数据预训练,支持中英双语,在代码生成、函数调用等任务表现优异。
大型语言模型
Transformers 支持多种语言

G
THUDM
995
21
Burtenshaw GemmaCoder3 12B GGUF
基于burtenshaw/GemmaCoder3-12B的量化版本,专为代码生成任务优化,支持多种量化级别以适应不同硬件需求。
大型语言模型
B
bartowski
9,066
8
Z1 7B
MIT
Z1是一个基于Qwen2.5-Coder-7B-Instruct的大语言模型,专注于通过思维迁移进行高效推理。
大型语言模型
Transformers

Z
efficientscaling
125
18
Qwen2.5 Coder 32B YOYO
Qwen2.5-Coder-32B-instruct是基于Qwen2.5-Coder-32B的指令微调版本,专注于代码生成和理解任务。
大型语言模型
Transformers

Q
YOYO-AI
14
2
YOYO O1 32B V2
融合了开源社区最顶尖的32B推理模型与代码模型,采用SCE合并技术以Qwen2.5-Coder-32B为基础模型进行融合。
大型语言模型
Transformers

Y
YOYO-AI
29
2
Qwq Coder 32B
基于Qwen系列模型合并的32B参数大语言模型,专注于代码生成与理解任务
大型语言模型
Transformers

Q
YOYO-AI
490
7
Gemma 3 4b It Codeforces SFT
该模型是基于google/gemma-3-4b-it在codeforces-cots数据集上微调得到的版本,主要用于代码相关任务。
大型语言模型
Transformers

G
qgallouedec
48
3
Pocketdoc Dans PersonalityEngine V1.2.0 24b GGUF
Apache-2.0
基于PocketDoc/Dans-PersonalityEngine-V1.2.0-24b的Llamacpp imatrix量化版本,支持多种量化选项,适用于文本生成任务。
大型语言模型 支持多种语言
P
bartowski
16.73k
23
Dolphin3.0 Llama3.2 3B GGUF
基于Llama3.2架构的3B参数大语言模型,支持英文文本生成任务,采用llama.cpp进行imatrix量化
大型语言模型 英语
D
bartowski
5,665
15
Opencerebrum 1.0 7b SFT GGUF
Apache-2.0
OpenCerebrum-1.0-7b-SFT是一个基于Locutusque/OpenCerebrum-1.0-7b-SFT的静态量化模型,支持多种量化版本,适用于代码生成、数学、化学、生物学等领域的文本生成和问答任务。
大型语言模型 支持多种语言
O
mradermacher
162
1
Qwen2.5 Coder 7B Instruct Uncensored
MIT
基于Qwen2.5-Coder-7B-Instruct优化的版本,专注于消除拒绝行为
大型语言模型
Transformers 支持多种语言

Q
BlossomsAI
23
1
Qwen2.5 Coder 1.5B Instruct Abliterated GGUF
Apache-2.0
基于Qwen2.5-Coder-1.5B-Instruct-abliterated模型的Llamacpp imatrix量化版本,适用于代码生成和文本生成任务。
大型语言模型 英语
Q
bartowski
729
1
Qwen2.5 Coder 14B Instruct Abliterated GGUF
Apache-2.0
Qwen2.5-Coder-14B-Instruct-abliterated的量化版本,支持多种量化类型,适用于不同硬件条件。
大型语言模型
Q
bartowski
1,240
12
Granite 3.0 3b A800m Instruct
Apache-2.0
IBM开发的30亿参数指令微调语言模型,基于Granite-3.0架构,支持多语言任务和商业应用
大型语言模型
Transformers

G
ibm-granite
5,240
18
Granite 3.0 8b Instruct
Apache-2.0
Granite-3.0-8B-Instruct是一个基于Granite-3.0-8B-Base微调的80亿参数模型,采用多种开源指令数据集和内部合成的数据集组合进行训练。
大型语言模型
Transformers

G
ibm-granite
24.29k
201
Yi Coder 1.5B Chat
Apache-2.0
Yi-Coder-1.5B 是一个开源代码语言模型,参数规模为15亿,支持52种编程语言,具备128K tokens的长文本理解能力。
大型语言模型
Transformers

Y
01-ai
295
34
Powerlm 3b
Apache-2.0
PowerLM-3B是一个30亿参数的小型语言模型,采用Power学习率调度器训练,在自然语言多选、代码生成和数学推理等多个基准测试中表现优异。
大型语言模型
Transformers

P
ibm-research
11.07k
20
API Pack Model
基于CodeLlama-13b-hf架构微调的大语言模型,专门针对API调用生成任务优化
大型语言模型
Transformers

A
apipack
16
1
Nxcode CQ 7B Orpo
其他
基于Qwen/CodeQwen1.5-7B模型,采用无参考模型的单体偏好优化方法在10万条高质量排序数据上进行微调的代码生成模型
大型语言模型
Transformers 其他

N
NTQAI
3,387
130
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98