Opencodereasoning Nemotron 14B GGUF
Apache-2.0
OpenCodeReasoning-Nemotron-14B 是基於 Qwen2.5-14B-Instruct 進行後訓練的大型語言模型,專為代碼生成推理優化,支持32K tokens上下文長度。
大型語言模型 支持多種語言
O
Mungert
507
1
Opencodereasoning Nemotron 32B GGUF
Apache-2.0
OpenCodeReasoning-Nemotron-32B 是基於 Qwen2.5-32B-Instruct 的代碼生成推理模型,支持32K tokens上下文長度,適用於商業和非商業用途。
大型語言模型 支持多種語言
O
Mungert
633
1
Qwen3 30B A3B Python Coder
基於Qwen/Qwen3-30B-A3B微調的Python編程專用模型,專注於代碼生成任務
大型語言模型
Transformers

Q
burtenshaw
64
5
Opencodereasoning Nemotron 7B
Apache-2.0
OpenCodeReasoning-Nemotron-7B 是基於 Qwen2.5-7B-Instruct 開發的大型語言模型,專注於代碼生成和推理任務,支持 32K tokens 的上下文長度。
大型語言模型
Transformers 支持多種語言

O
nvidia
5,410
30
Pycodet5
Apache-2.0
PyCodeT5是CodeT5模型的專用變體,專門針對生成和理解Python函數進行了微調,能夠將自然語言描述轉換為功能性Python代碼。
大型語言模型
Transformers 支持多種語言

P
S-Dreamer
31
1
Phi 3 Mini 4k Python
Apache-2.0
基於unsloth/Phi-3-mini-4k-instruct-bnb-4bit微調的Python代碼生成模型,使用Unsloth和TRL庫訓練,速度提升2倍
大型語言模型 英語
P
theprint
175
1
Codellama 34b Python Hf
Code Llama是由Meta發佈的預訓練生成文本模型系列,專為代碼生成與理解任務設計。本模型為340億參數Python專用版本。
大型語言模型
Transformers 其他

C
meta-llama
414
9
Codellama 13b Python Hf
Code Llama是由Meta發佈的70億到340億參數規模的預訓練及微調生成文本模型系列,本模型為130億參數Python專用版本
大型語言模型
Transformers 其他

C
meta-llama
636
7
Codellama 7b Python Hf
Code Llama是由Meta開發的70億參數代碼生成模型系列,本版本專門針對Python語言優化
大型語言模型
Transformers 其他

C
meta-llama
2,271
22
Codellama 70B Python GPTQ
CodeLlama 70B Python 是一個專注於 Python 編程語言的大型語言模型,基於 Llama 2 架構,專為代碼生成和補全任務優化。
大型語言模型
Transformers 其他

C
TheBloke
89
19
Tinycode Python
MIT
該模型基於bigcode/starcoderdata數據集中的58個Python文件中的4個進行訓練,主要用於代碼相關任務。
大型語言模型
Transformers 支持多種語言

T
blueapple8259
22
1
Tinymistral V2 Pycoder Instruct 248m
Apache-2.0
基於TinyMistral-248M-v2-Instruct開發的Python專用代碼生成模型,支持指令格式的Python代碼生成
大型語言模型
Transformers 其他

T
jtatman
16
3
Tinyllama Python Gguf
Apache-2.0
這是rahuldshetty/tinyllama-python的量化GGUF模型文件,基於unsloth/tinyllama-bnb-4bit微調,專注於Python代碼生成任務。
大型語言模型 支持多種語言
T
rahuldshetty
32
1
Zephyr Python Ru Merged
MIT
基於Zephyr-7b-beta的俄語編程增強模型,專注於Python代碼生成任務
大型語言模型
Transformers 支持多種語言

Z
MexIvanov
29
1
Phi 1
MIT
Phi-1是一個13億參數的Transformer模型,專為Python基礎編程設計,在HumanEval基準測試中準確率超過50%
大型語言模型
Transformers 支持多種語言

P
microsoft
7,907
211
Llama 2 7b Int4 GPTQ Python Code 20k
Gpl-3.0
這是Llama 2 7B模型的4位GPTQ量化版本,專門針對Python代碼生成任務進行了微調
大型語言模型
Transformers 其他

L
edumunozsala
22
1
Evolcodellama 7b
Apache-2.0
基於CodeLlama-7b-hf模型,採用QLoRA(4比特精度)在Evol-Instruct-Python-1k數據集上微調而成的代碼生成模型
大型語言模型
Transformers

E
mlabonne
34
6
Codellama 7B Python GGUF
CodeLlama 7B Python是Meta開發的專注於Python代碼生成的7B參數大語言模型,提供GGUF格式量化版本
大型語言模型
Transformers

C
TheBloke
2,385
57
Codellama 34b Python Hf
代碼駱駝(Code Llama)是Meta推出的340億參數Python專用代碼生成模型,基於Llama 2架構優化,專注於Python代碼合成與理解
大型語言模型
Transformers 其他

C
codellama
2,135
96
Codellama 13b Python Hf
Code Llama是Meta開發的代碼生成與理解大模型系列,本版本為130億參數Python專用變體
大型語言模型
Transformers 其他

C
codellama
2,230
51
Codet5p 220m Py
Bsd-3-clause
CodeT5+是一個開源代碼大語言模型家族,採用編碼器-解碼器架構,支持多種代碼理解與生成任務。本模型為220M參數版本,專門針對Python代碼生成進行了優化。
大型語言模型
Transformers

C
Salesforce
961
15
Codet5p 770m Py
Bsd-3-clause
CodeT5+是一個開源代碼大語言模型家族,採用編碼器-解碼器架構,支持廣泛的代碼理解與生成任務。本模型基於Python代碼進行了額外調優。
大型語言模型
Transformers

C
Salesforce
4,564
20
Tiny Starcoder Py
Openrail
這是一個擁有1.64億參數的Python代碼生成模型,基於StarCoder架構,專門針對Python代碼生成任務進行了優化。
大型語言模型
Transformers

T
bigcode
1,886
74
Codet5 Small Custom Functions Dataset Python
Apache-2.0
基於Salesforce/codet5-small微調的Python代碼生成模型,專注於自定義函數生成任務
大型語言模型
Transformers

C
sharoz
43
1
Codegen 350M Mono Custom Functions Dataset Python V2
Bsd-3-clause
基於Salesforce/codegen-350M-mono微調的Python代碼生成模型,專注於自定義函數生成
大型語言模型
Transformers

C
sharoz
130
2
Codet5 Large Ntp Py
Bsd-3-clause
CodeT5是基於Python語言NTP目標預訓練的大規模編碼器-解碼器模型,專注於代碼理解與生成任務
大型語言模型
Transformers

C
Salesforce
217
27
Codegen 16B Mono
Bsd-3-clause
CodeGen-Mono 16B是一個用於程序合成的自迴歸語言模型,專注於根據英語提示生成可執行代碼。
大型語言模型
Transformers

C
Salesforce
227
126
Codegen 6B Mono
Bsd-3-clause
CodeGen是用於程序合成的自迴歸語言模型系列,CodeGen-Mono 6B是基於Python編程語言數據集進一步預訓練的6B參數模型。
大型語言模型
Transformers

C
Salesforce
600
38
Codegen 350M Mono
Bsd-3-clause
CodeGen是一系列用於程序合成的自迴歸語言模型,基於Python編程語言數據集預訓練。
大型語言模型
Transformers

C
Salesforce
23.59k
93
Python Gpt2 Large Issues 128
Apache-2.0
基於bert-base-uncased微調的GPT-2大型模型,專注於Python代碼相關問題的處理
大型語言模型
Transformers

P
aytugkaya
15
0
Codeparrot
CodeParrot 是一個基於GPT-2架構(15億參數)訓練的Python代碼生成模型,專注於Python代碼的自動生成。
大型語言模型
Transformers 其他

C
codeparrot
1,342
105
Gpt Neo 125M Apps All
MIT
基於GPT-Neo-125M模型在APPS數據集上微調的編程任務解決模型
大型語言模型
G
flax-community
17
2
Genji Python 6B Split
Apache-2.0
基於GPT-J 6B微調的Python代碼生成模型,專注於Python編程輔助
大型語言模型
Transformers 英語

G
baffo32
16
0
Gpyt
MIT
GPyT是一個基於80GB純Python代碼從頭訓練的GPT2模型,專注於Python代碼生成任務。
大型語言模型
Transformers 其他

G
Sentdex
21
22
Nlgp Docstring
Apache-2.0
基於Jupyter筆記本訓練的Python代碼生成模型,可根據自然語言意圖在代碼上下文中合成代碼
大型語言模型
Transformers 支持多種語言

N
Nokia
45
2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98