Openr1 Distill 7B
Apache-2.0
OpenR1-Distill-7B是基於Qwen2.5-Math-7B在Mixture-of-Thoughts數據集上後訓練的版本,旨在教會語言模型進行逐步推理。
大型語言模型
Transformers 英語

O
open-r1
134
6
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct 是一個基於 Qwen2.5 架構的 7B 參數規模的代碼生成模型,專注於指令微調,適用於代碼生成和編程輔助任務。
大型語言模型
PyTorch
A
averntech
87
1
Nvidia.opencodereasoning Nemotron 14B GGUF
由NVIDIA開發的開源代碼推理大語言模型,參數規模為140億,專注於代碼生成和推理任務。
大型語言模型
N
DevQuasar
423
2
Qwen2.5 Recursive Coder 14B Instruct
Apache-2.0
基於Qwen2.5架構的14B參數規模代碼生成與理解模型,通過Model Stock方法融合多個專業編碼模型而成
大型語言模型
Transformers

Q
spacematt
39
2
Deepcoder 14B Preview Exl2
DeepCoder-14B-Preview是基於DeepSeek-R1-Distill-Qwen-14B開發的代碼生成模型,專注於可驗證編程問題的解決。
大型語言模型 英語
D
cgus
46
2
Qwen2.5 CompositeFlow Coder 14B Instruct
Apache-2.0
基於Qwen2.5-Coder-14B-Instruct基礎模型,通過mergekit工具合併多個專業編碼模型的混合模型
大型語言模型
Transformers

Q
spacematt
31
3
Huihui Ai.deepseek V3 0324 Pruned Coder 411B GGUF
DeepSeek-V3-0324-Pruned-Coder-411B 是一個經過剪枝優化的代碼生成模型,基於 DeepSeek-V3 架構,專注於代碼生成任務。
大型語言模型
H
DevQuasar
2,706
2
Qwen2.5 Coder 32B YOYO
Qwen2.5-Coder-32B-instruct是基於Qwen2.5-Coder-32B的指令微調版本,專注於代碼生成和理解任務。
大型語言模型
Transformers

Q
YOYO-AI
14
2
EXAONE Deep 2.4B AWQ
其他
EXAONE Deep系列模型在數學和編程等推理任務中表現出色,本模型為24億參數的AWQ量化版本
大型語言模型
Transformers 支持多種語言

E
LGAI-EXAONE
751
16
Qwen2.5 Coder 0.5B Q8 0 GGUF
Apache-2.0
這是一個基於Qwen2.5-Coder-0.5B模型轉換的GGUF格式模型,適用於代碼生成任務。
大型語言模型 支持多種語言
Q
ggml-org
943
5
Deepseek Coder 1.3B Kexer
Apache-2.0
基於Deepseek-coder-1.3B微調的開源生成式文本模型,專注於Kotlin代碼生成任務
大型語言模型
Transformers 其他

D
JetBrains
1,937
4
Codellama 7b Python Hf
Code Llama是由Meta開發的70億參數代碼生成模型系列,本版本專門針對Python語言優化
大型語言模型
Transformers 其他

C
meta-llama
2,271
22
Starcoder2 3b GGUF
Openrail
StarCoder2-3B是一個擁有30億參數的代碼生成模型,基於17種編程語言數據訓練,能夠生成代碼片段但可能不完全準確。
大型語言模型
Transformers

S
nold
300
1
Tinyllama 1.1B Chat V1.0 Sql Create Context Mlx
Apache-2.0
這是一個基於TinyLlama-1.1B-Chat-v1.0微調的模型,專門用於將自然語言問題及表結構定義(DDL)轉換為SQL查詢語句。
大型語言模型
Transformers 英語

T
alwint3r
57
1
Whiterabbitneo 7B V1.5a
其他
WhiteRabbitNeo系列模型專注於網絡安全領域的攻防應用,當前版本為7B參數規模,具備代碼生成和分析能力。
大型語言模型
Transformers

W
WhiteRabbitNeo
74
50
Starling LM 7B Alpha
Apache-2.0
首個基於AI反饋強化學習(RLAIF)訓練的開源大語言模型,在MT Bench測試中表現優異
大型語言模型
Transformers 英語

S
berkeley-nest
9,765
558
Openchat 3.5
Apache-2.0
OpenChat是一個創新的開源語言模型庫,採用C-RLFT策略進行微調,即使僅有70億參數也能實現與ChatGPT相媲美的性能。
大型語言模型
Transformers

O
openchat
14.35k
1,127
Codefuse 13B
其他
CodeFuse-13B是基於GPT-NeoX框架訓練的130億參數代碼生成模型,支持40多種編程語言,能處理長達4096字符的代碼序列。
大型語言模型
Transformers

C
codefuse-ai
31
49
Wizardcoder Python 13B V1.0
WizardCoder是通過Evol-Instruct方法增強的代碼大語言模型,專注於代碼生成任務。
大型語言模型
Transformers 其他

W
WizardLMTeam
681
106
Codellama 34B Instruct GGUF
CodeLlama 34B Instruct是Meta基於Llama 2架構開發的大型代碼生成模型,專門針對編程任務進行了優化,支持多種編程語言。
大型語言模型 其他
C
TheBloke
8,348
97
Codellama 13B GGUF
CodeLlama 13B 是 Meta 發佈的代碼生成與理解模型,基於 Llama 2 架構,專門針對編程任務優化。
大型語言模型 其他
C
TheBloke
8,068
61
Codellama 7B GGUF
CodeLlama 7B是由Meta開發的7B參數規模的代碼生成與理解模型,基於Llama 2架構優化,專注於編程任務。
大型語言模型 其他
C
TheBloke
10.80k
121
Codellama 13b Hf
Code Llama 13B是一個130億參數的生成式代碼模型,專為通用代碼合成與理解設計
大型語言模型
Transformers 其他

C
codellama
6,829
107
Starcoderbase 7b
Openrail
StarCoderBase-7B是一個參數規模為70億的代碼生成模型,支持80多種編程語言,專注於代碼補全和生成任務。
大型語言模型
Transformers 其他

S
bigcode
2,128
33
Wizardcoder 15B V1.0
Openrail
WizardCoder-33B-V1.1是基於deepseek-coder-33b-base訓練的開源代碼大語言模型,在HumanEval等代碼生成基準測試中表現優異。
大型語言模型
Transformers 其他

W
WizardLMTeam
521
759
Codet5 Small Custom Functions Dataset Python
Apache-2.0
基於Salesforce/codet5-small微調的Python代碼生成模型,專注於自定義函數生成任務
大型語言模型
Transformers

C
sharoz
43
1
Codegen 350M Mono Custom Functions Dataset Python V2
Bsd-3-clause
基於Salesforce/codegen-350M-mono微調的Python代碼生成模型,專注於自定義函數生成
大型語言模型
Transformers

C
sharoz
130
2
Gpt Neo 125M Code Clippy Dedup 2048
基於GPT-Neo架構的125M參數代碼生成模型,針對CodeClippy數據集進行微調,支持2048長度的序列生成
大型語言模型
G
flax-community
1,528
14
Codeparrot
CodeParrot 是一個基於GPT-2架構(15億參數)訓練的Python代碼生成模型,專注於Python代碼的自動生成。
大型語言模型
Transformers 其他

C
codeparrot
1,342
105
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98