Opencodereasoning Nemotron 14B GGUF
Apache-2.0
OpenCodeReasoning-Nemotron-14B は Qwen2.5-14B-Instruct を基にファインチューニングされた大規模言語モデルで、コード生成推論に最適化されており、32Kトークンのコンテキスト長をサポートします。
大規模言語モデル 複数言語対応
O
Mungert
507
1
Opencodereasoning Nemotron 32B GGUF
Apache-2.0
OpenCodeReasoning-Nemotron-32B は Qwen2.5-32B-Instruct をベースにしたコード生成推論モデルで、32Kトークンのコンテキスト長をサポートし、商用・非商用用途に適しています。
大規模言語モデル 複数言語対応
O
Mungert
633
1
Qwen3 30B A3B Python Coder
Qwen/Qwen3-30B-A3BをファインチューニングしたPythonプログラミング専用モデルで、コード生成タスクに特化
大規模言語モデル
Transformers

Q
burtenshaw
64
5
Opencodereasoning Nemotron 7B
Apache-2.0
OpenCodeReasoning-Nemotron-7B は Qwen2.5-7B-Instruct を基に開発された大規模言語モデルで、コード生成と推論タスクに特化しており、32Kトークンのコンテキスト長をサポートします。
大規模言語モデル
Transformers 複数言語対応

O
nvidia
5,410
30
Pycodet5
Apache-2.0
PyCodeT5はCodeT5モデルの専用バリアントで、Python関数の生成と理解に特化してファインチューニングされており、自然言語の記述を機能的なPythonコードに変換できます。
大規模言語モデル
Transformers 複数言語対応

P
S-Dreamer
31
1
Phi 3 Mini 4k Python
Apache-2.0
unsloth/Phi-3-mini-4k-instruct-bnb-4bitを微調整したPythonコード生成モデル。UnslothとTRLライブラリを使用して訓練され、速度が2倍向上
大規模言語モデル 英語
P
theprint
175
1
Codellama 34b Python Hf
Code LlamaはMetaがリリースした事前学習済み生成テキストモデルシリーズで、コード生成と理解タスク専用に設計されています。このモデルは340億パラメータのPython専用バージョンです。
大規模言語モデル
Transformers その他

C
meta-llama
414
9
Codellama 13b Python Hf
Code LlamaはMetaが発表した70億から340億パラメータ規模の事前学習及び微調整生成テキストモデルシリーズで、このモデルは130億パラメータのPython専用バージョンです
大規模言語モデル
Transformers その他

C
meta-llama
636
7
Codellama 7b Python Hf
Code LlamaはMetaが開発した70億パラメータのコード生成モデルシリーズで、このバージョンはPython言語に特化して最適化されています
大規模言語モデル
Transformers その他

C
meta-llama
2,271
22
Codellama 70B Python GPTQ
CodeLlama 70B PythonはPythonプログラミング言語に特化した大規模言語モデルで、Llama 2アーキテクチャを基にしており、コード生成と補完タスクに最適化されています。
大規模言語モデル
Transformers その他

C
TheBloke
89
19
Tinycode Python
MIT
このモデルはbigcode/starcoderdataデータセットの58のPythonファイルのうち4つで学習されており、主にコード関連タスクに使用されます。
大規模言語モデル
Transformers 複数言語対応

T
blueapple8259
22
1
Tinymistral V2 Pycoder Instruct 248m
Apache-2.0
TinyMistral-248M-v2-Instructを基に開発されたPython専用コード生成モデルで、命令形式のPythonコード生成をサポート
大規模言語モデル
Transformers その他

T
jtatman
16
3
Tinyllama Python Gguf
Apache-2.0
これはrahuldshetty/tinyllama-pythonの量子化GGUFモデルファイルで、unsloth/tinyllama-bnb-4bitをベースにファインチューニングされ、Pythonコード生成タスクに特化しています。
大規模言語モデル 複数言語対応
T
rahuldshetty
32
1
Zephyr Python Ru Merged
MIT
Zephyr-7b-betaをベースにしたロシア語プログラミング強化モデルで、Pythonコード生成タスクに特化
大規模言語モデル
Transformers 複数言語対応

Z
MexIvanov
29
1
Phi 1
MIT
Phi-1は13億パラメータのTransformerモデルで、Python基礎プログラミング向けに設計されており、HumanEvalベンチマークで50%以上の精度を達成
大規模言語モデル
Transformers 複数言語対応

P
microsoft
7,907
211
Llama 2 7b Int4 GPTQ Python Code 20k
Gpl-3.0
これはLlama 2 7Bモデルの4ビットGPTQ量子化バージョンで、Pythonコード生成タスクに特化してファインチューニングされています
大規模言語モデル
Transformers その他

L
edumunozsala
22
1
Evolcodellama 7b
Apache-2.0
CodeLlama-7b-hfモデルをベースに、QLoRA(4ビット精度)でEvol-Instruct-Python-1kデータセット上でファインチューニングされたコード生成モデル
大規模言語モデル
Transformers

E
mlabonne
34
6
Codellama 7B Python GGUF
CodeLlama 7B PythonはMetaが開発した、Pythonコード生成に特化した7Bパラメータの大規模言語モデルで、GGUF形式の量子化バージョンを提供します。
大規模言語モデル
Transformers

C
TheBloke
2,385
57
Codellama 34b Python Hf
コードラマ(Code Llama)はMetaが開発した340億パラメータのPython専用コード生成モデルで、Llama 2アーキテクチャを基に最適化され、Pythonコードの合成と理解に特化しています
大規模言語モデル
Transformers その他

C
codellama
2,135
96
Codellama 13b Python Hf
Code LlamaはMetaが開発したコード生成と理解の大規模モデルシリーズで、このバージョンは130億パラメータのPython専用バリアントです
大規模言語モデル
Transformers その他

C
codellama
2,230
51
Codet5p 220m Py
Bsd-3-clause
CodeT5+はオープンソースのコード大規模言語モデルファミリーで、エンコーダー-デコーダーアーキテクチャを採用し、さまざまなコード理解と生成タスクをサポートします。このモデルは220Mパラメータバージョンで、特にPythonコード生成に最適化されています。
大規模言語モデル
Transformers

C
Salesforce
961
15
Codet5p 770m Py
Bsd-3-clause
CodeT5+はオープンソースのコード大規模言語モデルファミリーで、エンコーダ-デコーダアーキテクチャを採用し、幅広いコード理解と生成タスクをサポートします。このモデルはPythonコードに基づいて追加のチューニングを行っています。
大規模言語モデル
Transformers

C
Salesforce
4,564
20
Tiny Starcoder Py
Openrail
これは1億6400万パラメータを持つPythonコード生成モデルで、StarCoderアーキテクチャに基づき、Pythonコード生成タスクに特化して最適化されています。
大規模言語モデル
Transformers

T
bigcode
1,886
74
Codet5 Small Custom Functions Dataset Python
Apache-2.0
Salesforce/codet5-smallを微調整したPythonコード生成モデル、カスタム関数生成タスクに特化
大規模言語モデル
Transformers

C
sharoz
43
1
Codegen 350M Mono Custom Functions Dataset Python V2
Bsd-3-clause
Salesforce/codegen-350M-monoを微調整したPythonコード生成モデル、カスタム関数生成に特化
大規模言語モデル
Transformers

C
sharoz
130
2
Codet5 Large Ntp Py
Bsd-3-clause
CodeT5はPython言語のNTP目標で事前学習された大規模なエンコーダ-デコーダモデルで、コード理解と生成タスクに特化しています
大規模言語モデル
Transformers

C
Salesforce
217
27
Codegen 16B Mono
Bsd-3-clause
CodeGen-Mono 16Bは、プログラム合成のための自己回帰型言語モデルで、英語のプロンプトから実行可能なコードを生成することに特化しています。
大規模言語モデル
Transformers

C
Salesforce
227
126
Codegen 6B Mono
Bsd-3-clause
CodeGenはプログラム合成のための自己回帰型言語モデルシリーズで、CodeGen-Mono 6BはPythonプログラミング言語データセットでさらに事前学習された60億パラメータモデルです。
大規模言語モデル
Transformers

C
Salesforce
600
38
Codegen 350M Mono
Bsd-3-clause
CodeGenは、Pythonプログラミング言語データセットで事前学習されたプログラム合成のための一連の自己回帰言語モデルです。
大規模言語モデル
Transformers

C
Salesforce
23.59k
93
Python Gpt2 Large Issues 128
Apache-2.0
bert-base-uncasedをファインチューニングしたGPT-2大型モデルで、Pythonコード関連の問題処理に特化
大規模言語モデル
Transformers

P
aytugkaya
15
0
Gpt Neo 125M Apps All
MIT
APPSデータセットでファインチューニングされたGPT-Neo-125Mモデルに基づくプログラミングタスク解決モデル
大規模言語モデル
G
flax-community
17
2
Codeparrot
CodeParrotは、GPT - 2アーキテクチャ(15億パラメータ)に基づいて訓練されたPythonコード生成モデルで、Pythonコードの自動生成に特化しています。
大規模言語モデル
Transformers その他

C
codeparrot
1,342
105
Genji Python 6B Split
Apache-2.0
GPT-J 6BをファインチューニングしたPythonコード生成モデルで、Pythonプログラミング支援に特化
大規模言語モデル
Transformers 英語

G
baffo32
16
0
Gpyt
MIT
GPyTは、80GBの純粋なPythonコードを使ってゼロから学習させたGPT2モデルで、Pythonコード生成タスクに特化しています。
大規模言語モデル
Transformers その他

G
Sentdex
21
22
Nlgp Docstring
Apache-2.0
Jupyterノートブックを使ってトレーニングされたPythonコード生成モデルで、自然言語の意図に基づいてコードコンテキスト内でコードを合成できます。
大規模言語モデル
Transformers 複数言語対応

N
Nokia
45
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98