Blitzar Coder 4B F.1 GGUF
Apache-2.0
Blitzar-Coder-4B-F.1は、Qwen3-4Bをベースに微調整された、10種類以上のプログラミング言語をサポートする高効率の多言語コーディングモデルです。優れたコード生成、デバッグ、推論能力を備えています。
大規模言語モデル
Transformers

B
prithivMLmods
267
1
Devstral Small 2505 Bnb 4bit
Apache-2.0
Devstralはソフトウェアエンジニアリングタスク向けに設計されたインテリジェントな大規模言語モデルで、Mistral AIとAll Hands AIの共同開発により、コードベースの探索、マルチファイル編集、ソフトウェアエンジニアリングエージェントの駆動に優れています。
大規模言語モデル
Safetensors 複数言語対応
D
unsloth
465
3
Devstral Small 2505
Apache-2.0
Devstralはソフトウェアエンジニアリングタスク専用に設計されたインテリジェントな大規模言語モデルで、Mistral AIとAll Hands AIの共同開発により、コード探索、マルチファイル編集、ソフトウェアエンジニアリングエージェントの駆動に優れています。
大規模言語モデル
Safetensors 複数言語対応
D
unsloth
317
11
Devstral Small 2505 Unsloth Bnb 4bit
Apache-2.0
DevstralはMistral AIとAll Hands AIが共同開発したソフトウェアエンジニアリングタスク向けの大規模言語モデルエージェントで、ツールを使用したコードベースの探索、複数ファイルの編集、ソフトウェアエンジニアリングエージェントの駆動に優れています。
大規模言語モデル
Safetensors 複数言語対応
D
unsloth
873
3
Devstral Small 2505
Apache-2.0
DevstralはMistral AIとAll Hands AIが共同開発したソフトウェアエンジニアリングタスク向けのインテリジェント大規模言語モデルで、コードベースの探索、マルチファイル編集、ソフトウェアエンジニアリングエージェントの駆動に優れています。
大規模言語モデル
Safetensors 複数言語対応
D
mistralai
102.17k
601
Bootes Qwen3 Coder Reasoning
Apache-2.0
Qwen3-4Bアーキテクチャをファインチューニングしたコード推論モデルで、高精度なコード推論と構造化ロジックタスクに最適化されています。
大規模言語モデル
Transformers

B
prithivMLmods
182
2
Nvidia OpenCodeReasoning Nemotron 32B IOI GGUF
Apache-2.0
これはNVIDIA OpenCodeReasoning-Nemotron-32B-IOIモデルの量子化バージョンで、llama.cppを使用して量子化処理されており、コード推論タスクに適しています。
大規模言語モデル 複数言語対応
N
bartowski
1,272
2
THUDM GLM 4 32B 0414 6.5bpw H8 Exl2
MIT
GLM-4-32B-0414はGLMファミリーの新メンバーで、パラメータ規模は320億に達し、性能はGPTシリーズに匹敵し、ローカル展開をサポートしています。
大規模言語モデル
Transformers 複数言語対応

T
LatentWanderer
148
2
Phi 4 Mini Instruct.gguf
MIT
Phi-4-mini-instructは、高品質で推論に富んだデータに焦点を当てた軽量オープンソースモデルで、128Kトークンのコンテキスト長をサポートします。
大規模言語モデル その他
P
Mungert
13.08k
25
Hicoder R1 Distill Gemma 27B
GoogleのGemma-3 27Bをファインチューニングした大規模言語モデルで、チェイン・オブ・シンキング推論とコード生成タスクに特化し、GPUメモリとシステムメモリ管理を最適化しています。
大規模言語モデル
H
tonyli8623
13
2
Openthaigpt R1 32b Instruct
その他
OpenThaiGPT R1 32bは320億パラメータのタイ語推論モデルで、タイ語の数学、論理、コード推論タスクで優れた性能を発揮し、より大規模なモデルを凌駕しています。
大規模言語モデル
Transformers 複数言語対応

O
openthaigpt
403
3
Refact 1 6B Fim GGUF
Openrail
Refact-1.6Bはコード生成に特化した1.6Bパラメータ規模の大規模言語モデルで、複数のプログラミング言語で優れた性能を発揮します。
大規模言語モデル 複数言語対応
R
Mungert
765
3
Viper Coder V1.5 R999
Apache-2.0
Viper-Coder-v1.5-r999 は Qwen 2.5 14B アーキテクチャを基に設計された大規模言語モデルで、コーディングと推論タスクに最適化されており、強力な思考連鎖推論と論理的問題解決能力を備えています。
大規模言語モデル
Transformers 複数言語対応

V
prithivMLmods
1,314
1
Fluentlylm Prinum
MIT
フルエント言語モデルプロジェクトの初の独立モデルで、32.5Bパラメータの因果言語モデル、複数の言語とタスクに対応。
大規模言語モデル
Transformers 複数言語対応

F
fluently-lm
241
28
Sky T1 32B Preview GGUF
Sky-T1-32B-Previewは32Bパラメータの大規模言語モデルで、llama.cppのimatrix量子化処理を経ており、テキスト生成タスクに適しています。
大規模言語モデル 英語
S
bartowski
1,069
81
Phi 3.5 MoE Instruct
MIT
Phi-3.5-MoEは軽量で最先端のオープンソースモデルで、多言語をサポートし、128Kのコンテキスト長を持ち、高品質で推論集約的なデータに焦点を当てています。
大規模言語モデル
Transformers

P
microsoft
40.25k
558
Phi 3.5 Mini Instruct
MIT
Phi-3.5-miniは、軽量で最先端のオープンソースモデルであり、Phi-3で使用されたデータセットに基づいて構築され、128Kのコンテキスト長をサポートし、高品質で推論能力に富んだデータを特に重視しています。
大規模言語モデル
Transformers その他

P
microsoft
354.64k
859
Codegeex4 All 9b
その他
CodeGeeX4-ALL-9BはCodeGeeX4シリーズモデルの最新オープンソース版で、GLM-4-9Bを基に継続的にトレーニングされ、コード生成能力が大幅に向上しました。
大規模言語モデル
Transformers 複数言語対応

C
THUDM
294
251
Codestral
その他
Codestral-22B-v0.1は80種類以上のプログラミング言語をサポートする大規模言語モデルで、コード生成とプログラミング支援タスクに特化しています。
大規模言語モデル
C
cortexso
527
1
Granite 8b Code Instruct 4k GGUF
Apache-2.0
IBM Granite 8Bコード命令モデルは、コード生成と解説に特化したAIモデルで、複数のプログラミング言語をサポートし、HumanEvalなどのベンチマークテストで優れた性能を発揮します。
大規模言語モデル その他
G
ibm-granite
979
11
Codestral 22B V0.1 Imat GGUF
その他
Codestral-22B-v0.1はMistral AIが開発した大規模なコード生成モデルで、80以上のプログラミング言語をサポートし、コード生成、説明、リファクタリングタスクに適しています。
大規模言語モデル その他
C
qwp4w3hyb
362
3
Codestral 22B V0.1
その他
Codestral-22B-v0.1はMistral AIがリリースした220億パラメータのプログラミング言語モデルで、80以上のプログラミング言語のコード生成と理解タスクをサポートします
大規模言語モデル
Transformers その他

C
mistralai
14.04k
1,246
Granite 34b Code Instruct 8k GGUF
Apache-2.0
IBM Granite 34Bコード命令モデルは、コード生成と説明に特化した大規模言語モデルで、34Bパラメータのアーキテクチャに基づき、複数のプログラミング言語をサポートしています。
大規模言語モデル その他
G
ibm-granite
40
3
Phi 3 Small 8k Instruct
MIT
Phi-3-Small-8K-Instructは70億パラメータの軽量オープンソースモデルで、高品質な推論能力に特化し、8Kのコンテキスト長をサポート、英語環境での商業・研究用途に適しています。
大規模言語モデル
Transformers その他

P
microsoft
22.92k
165
Code Llama 3 8B
Llama-3-8Bをベースに訓練されたコード生成と数学問題解答モデルで、複数のプログラミング言語と詳細なコード解説をサポート
大規模言語モデル
Transformers 複数言語対応

C
ajibawa-2023
55
30
Codegemma 1.1 7b It
CodeGemmaはGemmaをベースに構築された軽量オープンソースコードモデルシリーズで、コード生成と対話タスクに特化しています。
大規模言語モデル
Transformers

C
google
209
50
Codegemma 1.1 2b
CodeGemmaはGemmaをベースに構築された軽量オープンソースコードモデルのセットで、コード補完、生成、対話などのさまざまなタスクをサポートします。
大規模言語モデル
Transformers

C
google
426
18
Granite 20b Code Instruct 8k
Apache-2.0
Granite-20B-Code-Instruct-8Kは200億パラメータのコード生成モデルで、Granite-20B-Code-Base-8Kをファインチューニングしたもので、コード生成と命令追従能力に特化しています。
大規模言語モデル
Transformers その他

G
ibm-granite
824
40
Granite 8b Code Instruct 4k
Apache-2.0
Granite-8B-Code-Instruct-4Kは80億パラメータのコード命令モデルで、Granite-8B-Code-Base-4Kを基に、さまざまな許可された命令データで微調整されており、論理的推論や問題解決スキルを含む命令遵守能力が強化されています。
大規模言語モデル
Transformers その他

G
ibm-granite
1,481
110
Granite 3b Code Instruct 2k
Apache-2.0
Granite-3B-Code-Instruct-2KはGranite-3B-Code-Base-2Kを微調整した30億パラメータのモデルで、命令追従能力が強化されており、特にコード生成と論理的推論タスクに優れています。
大規模言語モデル
Transformers その他

G
ibm-granite
1,883
36
Granite 3b Code Base 2k
Apache-2.0
Granite-3B-Code-Base-2KはIBM研究所が開発したコード生成タスク専用のデコーダのみモデルで、3Bパラメータ規模を持ち、116のプログラミング言語をサポートしています。
大規模言語モデル
Transformers その他

G
ibm-granite
711
37
Aixcoder 7b
aiXcoder-7Bはコード生成と理解に特化した大規模言語モデルで、1.2Tのユニークなトークンで訓練されており、コード補完や多言語コード生成タスクで優れた性能を発揮します。
大規模言語モデル
Transformers

A
aiXcoder
17
22
Aixcoder 7b Base
aiXcoder-7B Baseは、コード補完と生成タスクに特化した7Bパラメータの大規模言語モデルで、1.2Tの独自コードデータでトレーニングされ、実際の開発シナリオで優れたパフォーマンスを発揮します。
大規模言語モデル
Transformers

A
aiXcoder
99
55
Codegemma 7b
CodeGemmaはGemmaをベースに構築された軽量オープンソースコードモデルシリーズで、コード補完と生成タスクに特化しています。
大規模言語モデル
Transformers

C
google
15.29k
186
Codegemma 2b
CodeGemmaはGemmaを基に構築された軽量オープンソースコードモデルで、コード補完と生成タスクに特化しています。
大規模言語モデル
Transformers

C
google
4,685
79
Codegemma 7b It GGUF
CodeGemmaはGemmaをベースに構築された軽量オープンソースコードモデルシリーズで、コード補完、生成、対話タスクに特化しています。
大規模言語モデル
C
google
46
56
Codegemma 2b GGUF
CodeGemmaはGemmaをベースに構築された軽量なオープンソースコードモデルシリーズで、テキストからテキスト、テキストからコードへのデコーダモデルを含み、コード補完と生成タスクに特化しています。
大規模言語モデル
C
google
31
25
Starchat2 15b V0.1
StarChat2はStarCoder2をファインチューニングした160億パラメータのプログラミングアシスタントモデルで、対話とコード生成タスクに優れています
大規模言語モデル
Transformers

S
HuggingFaceH4
4,196
111
Ernie Code 560m
MIT
ERNIE-Codeは116の自然言語と6つのプログラミング言語を接続する統一大型言語モデルで、様々なクロスランガージュタスクをサポートします。
大規模言語モデル
Transformers

E
baidu
69
9
Starcoder2 3b GGUF
Openrail
StarCoder2-3Bは30億のパラメータを持つコード生成モデルで、17種類のプログラミング言語のデータを基に訓練されており、コード断片を生成することができますが、必ずしも完全に正確であるとは限りません。
大規模言語モデル
Transformers

S
nold
300
1
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98