# プログラミングアシスタント

Mellum 4b Sft Rust GGUF
Apache-2.0
Rustコードの中間補完(FIM)タスク向けにファインチューニングされた大規模言語モデル、JetBrains/Mellum-4b-baseを基に構築
大規模言語モデル 複数言語対応
M
Etherll
389
1
Qwen2.5 Coder 1.5B Instruct Reasoning
Gpl-3.0
Qwen2.5-Coder-1.5B-Instructをファインチューニングしたコード推論モデルで、プログラミング問題解決と論理推論能力が強化されています
大規模言語モデル 複数言語対応
Q
bunyaminergen
130
1
Open Instruct Code Alpaca 7b
コードアルパカデータセットでファインチューニングされた7BパラメータLLaMaモデル、コード生成タスクに特化
大規模言語モデル Transformers 英語
O
allenai
29
2
Deepseek Coder V2 Base
その他
DeepSeek-Coder-V2はプログラミングとコードタスクに特化したAIアシスタントで、複数のプログラミング言語のコードを書いたり、デバッグしたり、解説したりするのが得意です。
大規模言語モデル Transformers
D
deepseek-ai
4,588
71
Qwq Coder 32B
Qwenシリーズモデルを統合した32Bパラメータの大規模言語モデルで、コード生成と理解タスクに特化
大規模言語モデル Transformers
Q
YOYO-AI
490
7
Granite 8b Code Instruct 128k GGUF
Apache-2.0
IBM Granite 8Bコード指令モデルで、128kの文脈長をサポートし、コード生成と指令理解タスクに特化しています。
大規模言語モデル Transformers その他
G
tensorblock
186
1
Qwen2.5 Coder 1.5B GGUF
Apache-2.0
Qwen2.5-Coder-1.5Bは15億パラメータのコード生成モデルで、複数のプログラミング言語をサポートし、コード補完と生成タスクに適しています。
大規模言語モデル Transformers 複数言語対応
Q
tensorblock
162
1
Deepseek Coder V2 Lite Instruct FP8
その他
DeepSeek-Coder-V2-Lite-InstructのFP8量子化バージョンで、英語の商用および研究用途に適しており、推論効率が最適化されています。
大規模言語モデル Transformers
D
RedHatAI
11.29k
7
Granite 3b Code Instruct 128k
Apache-2.0
Granite-3B-Code-Instruct-128Kは30億パラメータを持つ長文脈命令モデルで、Granite-3B-Code-Base-128Kを微調整したもので、コーディング関連タスクに特化しています。
大規模言語モデル Transformers
G
ibm-granite
1,516
10
Codestral 22B V0.1 Imat GGUF
その他
Codestral-22B-v0.1はMistral AIが開発した大規模なコード生成モデルで、80以上のプログラミング言語をサポートし、コード生成、説明、リファクタリングタスクに適しています。
大規模言語モデル その他
C
qwp4w3hyb
362
3
Codestral 22B V0.1
その他
Codestral-22B-v0.1はMistral AIがリリースした220億パラメータのプログラミング言語モデルで、80以上のプログラミング言語のコード生成と理解タスクをサポートします
大規模言語モデル Transformers その他
C
mistralai
14.04k
1,246
Granite 20b Code Instruct 8k
Apache-2.0
Granite-20B-Code-Instruct-8Kは200億パラメータのコード生成モデルで、Granite-20B-Code-Base-8Kをファインチューニングしたもので、コード生成と命令追従能力に特化しています。
大規模言語モデル Transformers その他
G
ibm-granite
824
40
Dolphin 2.9 Llama3 70b 5.0bpw H6 Exl2
Dolphin 2.9はLlama-3-70bをベースにした未審査AIアシスタントモデルで、複数のコマンド、対話、プログラミングスキルを備え、エージェント機能と関数呼び出しを初歩的にサポートしています。
大規模言語モデル Transformers 英語
D
LoneStriker
22
3
Nxcode CQ 7B Orpo
その他
Qwen/CodeQwen1.5-7Bモデルをベースに、無参照モデルの単体偏好最適化方法を用いて10万件の高品質ソートデータで微調整したコード生成モデル
大規模言語モデル Transformers その他
N
NTQAI
3,387
130
Codellama 34b Hf
Code LlamaはMetaがリリースした70億から340億パラメータのコード生成と理解モデルシリーズで、このバージョンは340億パラメータのベースモデルです
大規模言語モデル Transformers その他
C
meta-llama
492
15
Starchat2 15b V0.1
StarChat2はStarCoder2をファインチューニングした160億パラメータのプログラミングアシスタントモデルで、対話とコード生成タスクに優れています
大規模言語モデル Transformers
S
HuggingFaceH4
4,196
111
Codellama 70B Python GPTQ
CodeLlama 70B PythonはPythonプログラミング言語に特化した大規模言語モデルで、Llama 2アーキテクチャを基にしており、コード生成と補完タスクに最適化されています。
大規模言語モデル Transformers その他
C
TheBloke
89
19
Tinyllama 1.1B Chat V1.0 GGUF
Apache-2.0
TinyLlamaは1.1Bパラメータの軽量Llamaモデルで、チャットやプログラミング支援タスクに最適化されています。
大規模言語モデル 英語
T
andrijdavid
117
2
Autodev Coder
その他
AutoDev Coderはdeepseek-coder-6.7b-instructモデルを微調整した大規模言語モデルで、コード生成とプログラミング支援タスクに特化しています。
大規模言語モデル Transformers
A
unit-mesh
26
13
Codeninja 1.0 OpenChat 7B
MIT
コード忍者は有名なモデルopenchat/openchat-3.5-1210の強化バージョンで、40万以上のコーディング命令を含む2つの大規模データセットで教師ありファインチューニングを行ってトレーニングされています。
大規模言語モデル Transformers
C
beowolx
2,998
105
Magicoder S DS 6.7B
その他
MagicoderはOSS-Instructによって強化された新しいモデルファミリーで、オープンソースのコードスニペットから低バイアスで高品質なコード命令データを生成するLLMを刺激し、コーディングタスク専用に設計されています。
大規模言語モデル Transformers
M
ise-uiuc
356
203
Magicoder DS 6.7B
その他
MagicoderはOSS-Instruct技術によって駆動されるコード生成モデルファミリーで、オープンソースコードスニペットからLLMが高品質なコード命令データを生成することを可能にします
大規模言語モデル Transformers
M
ise-uiuc
151
38
Deepseek Coder 1.3b Instruct GPTQ
その他
Deepseek Coder 1.3B InstructのGPTQ量子化バージョンで、複数の量子化パラメータを選択でき、コード生成やコンピュータサイエンス関連のタスクに適しています。
大規模言語モデル Transformers
D
TheBloke
653
7
Deepseek Coder 6.7B Instruct AWQ
その他
Deepseek Coder 6.7B Instructは、プログラミングタスクに特化したAIアシスタントモデルで、DeepSeek社によって開発されました。コンピュータサイエンス関連の質問に回答するために設計されており、非技術的な質問には回答しません。
大規模言語モデル Transformers
D
TheBloke
248
16
Wizardcoder Python 13B V1.0 GPTQ
WizardCoder Python 13B V1.0はWizardLMによって開発された大規模言語モデルで、Pythonコード生成タスクに特化しており、llama2アーキテクチャに基づいており、HumanEvalベンチマークテストで優れた性能を発揮します。
大規模言語モデル Transformers
W
TheBloke
309
76
Codellama Chat 13b Chinese
Openrail
CodeLlaMaはプログラミング支援専用に設計されたモデルで、プログラミング関連の質問回答に優れ、中英バイリンガルのマルチターン対話をサポートします。
大規模言語モデル Transformers 複数言語対応
C
shareAI
16
21
Codellama 7b Python Hf
Code LlamaはMetaが開発した70億パラメータのPython専用コード生成モデルで、Llama 2アーキテクチャを基に最適化され、Pythonコードの合成と理解タスクに特化しています
大規模言語モデル Transformers その他
C
codellama
26.36k
141
Llama 2 Coder 7b
Apache-2.0
Llama-2 7bモデルを微調整したコード生成モデルで、プログラミング支援タスク専用
大規模言語モデル Transformers その他
L
mrm8488
191
52
Starchat Beta
Openrail
StarChat-βはStarCoderPlusをファインチューニングした言語モデルで、プログラミング支援タスクに特化しており、80以上のプログラミング言語をサポート
大規模言語モデル Transformers
S
HuggingFaceH4
1,782
264
Starchat Alpha
Openrail
StarCoderをファインチューニングしたプログラミングアシスタント言語モデル、160億パラメータ規模、英語対応、教育研究分野に適しています
大規模言語モデル Transformers 複数言語対応
S
HuggingFaceH4
1,647
233
Starcoder Gpteacher Code Instruct
Openrail
StarCoderモデルをベースに、GPTeacherコード生成データセットで微調整を行い、コード生成と説明能力を最適化
大規模言語モデル Transformers
S
GeorgiaTechResearchInstitute
122
81
Starcoder
Openrail
StarCoderは80以上のプログラミング言語でトレーニングされた155億パラメータのコード生成モデルで、8192トークンのコンテキストウィンドウをサポートします
大規模言語モデル Transformers その他
S
bigcode
10.72k
2,875
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase