# 代碼生成優化

Acereason Nemotron 14B GGUF
AceReason-Nemotron-14B是一個通過強化學習訓練的數學和代碼推理模型,在多個數學和代碼推理基準測試中表現出色。
大型語言模型 Transformers
A
QuantFactory
326
2
Acereason Nemotron 7B GGUF
AceReason-Nemotron-7B是一個基於強化學習訓練的數學和代碼推理模型,從DeepSeek-R1-Distilled-Qwen-7B開始訓練,在多個基準測試中表現出色。
大型語言模型 Transformers
A
QuantFactory
326
2
Areal Boba 2 8B
Apache-2.0
AReaL是由螞蟻科技集團開發的異步強化學習訓練系統,專為大型推理模型設計,支持快速訓練和前沿性能。
大型語言模型 Transformers
A
inclusionAI
1,294
2
The Teacher
基於Qwen3-1.7B微調,通過強化學習技術提升數學推理能力的語言模型
大型語言模型 Safetensors 英語
T
shiviktech
824
0
Murai 350M V0.1 Beta
Apache-2.0
這是一個基於transformers庫構建的文本生成模型,具備高效的參數架構和出色的文本生成能力。
大型語言模型 Transformers
M
DeepMount00
140
1
Devstral Small 2505.w4a16 Gptq
Apache-2.0
這是一個基於mistralai/Devstral-Small-2505模型的4位GPTQ量化版本,專為消費級硬件優化。
大型語言模型 Safetensors
D
mratsim
557
1
Acereason Nemotron 7B
其他
通過強化學習訓練的數學與代碼推理模型,基於DeepSeek-R1-Distilled-Qwen-7B,在數學和代碼推理任務上表現優異
大型語言模型 Transformers
A
nvidia
4,278
10
SWE Agent LM 32B GGUF
Apache-2.0
SWE-agent-LM-32B是一個開源的軟件工程語言模型,基於Qwen/Qwen2.5-Coder-32B-Instruct微調,專為軟件工程任務設計。
大型語言模型 Transformers 英語
S
Mungert
2,933
1
Marin 8b Instruct
Apache-2.0
Marin 8B是一個開源的8B參數規模的大型語言模型,基於Llama架構開發,支持英語文本生成任務。
大型語言模型 英語
M
marin-community
239
1
Seed Coder Triton 8b V1
MIT
基於ByteDance-Seed/Seed-Coder-8B-Base模型在特定數據集上微調的大語言模型,支持長序列輸入和高效訓練策略。
大型語言模型 Transformers
S
winglian
1,388
1
Seed Coder 8B Reasoning Bf16
MIT
Seed-Coder是一個8B規模的開源代碼模型家族,包含基礎版、指導版和推理版。推理版通過強化學習訓練提升推理能力,支持64K上下文長度。
大型語言模型 Transformers
S
ByteDance-Seed
4,382
9
Falcon H1 34B Instruct GPTQ Int8
其他
獵鷹-H1是由TII開發的高性能混合架構語言模型,結合了Transformers和Mamba架構的優勢,支持英語和多語言任務。
大型語言模型 Transformers
F
tiiuae
105
3
Andrewzh Absolute Zero Reasoner Coder 14b GGUF
基於andrewzh的Absolute_Zero_Reasoner-Coder-14b模型,使用llama.cpp進行imatrix量化的版本,適用於推理和代碼生成任務。
大型語言模型
A
bartowski
1,995
5
Falcon H1 1.5B Base
其他
Falcon-H1是由TII開發的混合Transformers + Mamba架構的僅解碼因果模型,支持英語和多語言任務。
大型語言模型 Transformers 支持多種語言
F
tiiuae
454
2
Phi 4 Reasoning Plus
MIT
Phi-4推理增強版是微軟研究院開發的140億參數開源推理模型,通過監督微調和強化學習優化,專注於數學、科學和編程領域的高級推理能力。
大型語言模型 Transformers 支持多種語言
P
unsloth
189
2
GLM 4 9B 0414 GGUF
MIT
GLM-4-9B-0414是GLM家族中的輕量級成員,擁有90億參數,在數學推理和通用任務上表現出色,為資源受限場景提供了高效的解決方案。
大型語言模型 支持多種語言
G
unsloth
4,291
9
Granite 4.0 Tiny Preview
Apache-2.0
Granite-4-Tiny-Preview 是一個擁有70億參數的細粒度混合專家(MoE)指令微調模型,基於 Granite-4.0-Tiny-Base-Preview 開發,適用於通用指令跟隨任務。
大型語言模型 Transformers
G
ibm-granite
7,906
108
Olympiccoder 7B GGUF
Apache-2.0
OlympicCoder-7B是基於Qwen2.5-Coder-7B-Instruct優化的代碼生成模型,採用IQ-DynamicGate超低比特量化技術,專為內存受限環境設計。
大型語言模型 英語
O
Mungert
849
3
Qwen2.5 Recursive Coder 14B Instruct
Apache-2.0
基於Qwen2.5架構的14B參數規模代碼生成與理解模型,通過Model Stock方法融合多個專業編碼模型而成
大型語言模型 Transformers
Q
spacematt
39
2
Deepcoder 14B Preview GGUF
MIT
採用IQ-DynamicGate技術的超低位量化(1-2比特)模型,適用於內存受限設備和邊緣計算場景
大型語言模型 英語
D
Mungert
1,764
6
Qwen2.5 CompositeFlow Coder 14B Instruct
Apache-2.0
基於Qwen2.5-Coder-14B-Instruct基礎模型,通過mergekit工具合併多個專業編碼模型的混合模型
大型語言模型 Transformers
Q
spacematt
31
3
GLM 4 32B Base 0414
MIT
GLM-4-32B-Base-0414是320億參數規模的大語言模型,基於15T高質量數據預訓練,支持中英雙語,在代碼生成、函數調用等任務表現優異。
大型語言模型 Transformers 支持多種語言
G
THUDM
995
21
Burtenshaw GemmaCoder3 12B GGUF
基於burtenshaw/GemmaCoder3-12B的量化版本,專為代碼生成任務優化,支持多種量化級別以適應不同硬件需求。
大型語言模型
B
bartowski
9,066
8
Z1 7B
MIT
Z1是一個基於Qwen2.5-Coder-7B-Instruct的大語言模型,專注於通過思維遷移進行高效推理。
大型語言模型 Transformers
Z
efficientscaling
125
18
Qwen2.5 Coder 32B YOYO
Qwen2.5-Coder-32B-instruct是基於Qwen2.5-Coder-32B的指令微調版本,專注於代碼生成和理解任務。
大型語言模型 Transformers
Q
YOYO-AI
14
2
YOYO O1 32B V2
融合了開源社區最頂尖的32B推理模型與代碼模型,採用SCE合併技術以Qwen2.5-Coder-32B為基礎模型進行融合。
大型語言模型 Transformers
Y
YOYO-AI
29
2
Qwq Coder 32B
基於Qwen系列模型合併的32B參數大語言模型,專注於代碼生成與理解任務
大型語言模型 Transformers
Q
YOYO-AI
490
7
Gemma 3 4b It Codeforces SFT
該模型是基於google/gemma-3-4b-it在codeforces-cots數據集上微調得到的版本,主要用於代碼相關任務。
大型語言模型 Transformers
G
qgallouedec
48
3
Pocketdoc Dans PersonalityEngine V1.2.0 24b GGUF
Apache-2.0
基於PocketDoc/Dans-PersonalityEngine-V1.2.0-24b的Llamacpp imatrix量化版本,支持多種量化選項,適用於文本生成任務。
大型語言模型 支持多種語言
P
bartowski
16.73k
23
Dolphin3.0 Llama3.2 3B GGUF
基於Llama3.2架構的3B參數大語言模型,支持英文文本生成任務,採用llama.cpp進行imatrix量化
大型語言模型 英語
D
bartowski
5,665
15
Opencerebrum 1.0 7b SFT GGUF
Apache-2.0
OpenCerebrum-1.0-7b-SFT是一個基於Locutusque/OpenCerebrum-1.0-7b-SFT的靜態量化模型,支持多種量化版本,適用於代碼生成、數學、化學、生物學等領域的文本生成和問答任務。
大型語言模型 支持多種語言
O
mradermacher
162
1
Qwen2.5 Coder 7B Instruct Uncensored
MIT
基於Qwen2.5-Coder-7B-Instruct優化的版本,專注於消除拒絕行為
大型語言模型 Transformers 支持多種語言
Q
BlossomsAI
23
1
Qwen2.5 Coder 1.5B Instruct Abliterated GGUF
Apache-2.0
基於Qwen2.5-Coder-1.5B-Instruct-abliterated模型的Llamacpp imatrix量化版本,適用於代碼生成和文本生成任務。
大型語言模型 英語
Q
bartowski
729
1
Qwen2.5 Coder 14B Instruct Abliterated GGUF
Apache-2.0
Qwen2.5-Coder-14B-Instruct-abliterated的量化版本,支持多種量化類型,適用於不同硬件條件。
大型語言模型
Q
bartowski
1,240
12
Granite 3.0 3b A800m Instruct
Apache-2.0
IBM開發的30億參數指令微調語言模型,基於Granite-3.0架構,支持多語言任務和商業應用
大型語言模型 Transformers
G
ibm-granite
5,240
18
Granite 3.0 8b Instruct
Apache-2.0
Granite-3.0-8B-Instruct是一個基於Granite-3.0-8B-Base微調的80億參數模型,採用多種開源指令數據集和內部合成的數據集組合進行訓練。
大型語言模型 Transformers
G
ibm-granite
24.29k
201
Yi Coder 1.5B Chat
Apache-2.0
Yi-Coder-1.5B 是一個開源代碼語言模型,參數規模為15億,支持52種編程語言,具備128K tokens的長文本理解能力。
大型語言模型 Transformers
Y
01-ai
295
34
Powerlm 3b
Apache-2.0
PowerLM-3B是一個30億參數的小型語言模型,採用Power學習率調度器訓練,在自然語言多選、代碼生成和數學推理等多個基準測試中表現優異。
大型語言模型 Transformers
P
ibm-research
11.07k
20
API Pack Model
基於CodeLlama-13b-hf架構微調的大語言模型,專門針對API調用生成任務優化
大型語言模型 Transformers
A
apipack
16
1
Nxcode CQ 7B Orpo
其他
基於Qwen/CodeQwen1.5-7B模型,採用無參考模型的單體偏好優化方法在10萬條高質量排序數據上進行微調的代碼生成模型
大型語言模型 Transformers 其他
N
NTQAI
3,387
130
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase