Diffucoder 7B Cpgrpo 8bit
DiffuCoder-7B-cpGRPO-8bitはMLX形式に変換されたコード生成モデルで、apple/DiffuCoder-7B-cpGRPOをベースに変換され、開発者に高効率なコード生成ツールを提供するために設計されています。
大規模言語モデル その他
D
mlx-community
272
2
Diffucoder 7B Cpgrpo 6bit
DiffuCoder-7B-cpGRPO-6bitは、MLX形式に変換されたテキスト生成モデルで、コードとテキスト拡散タスクに特化しています。
大規模言語モデル その他
D
mlx-community
103
1
Diffucoder 7B Cpgrpo 4bit
DiffuCoder-7B-cpGRPO-4bitは、AppleのDiffuCoder-7B-cpGRPOモデルを基に変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化されています。
大規模言語モデル その他
D
mlx-community
218
1
Qwen Qwen2.5 Coder 1.5B GGUF
Qwen2.5-Coder-1.5BのGGUF量子化バージョンで、コード生成タスクに最適化され、性能とリソース消費をバランスさせるための複数の量子化オプションを提供します。
大規模言語モデル
Q
featherless-ai-quants
228
1
Openthinker3 7B GGUF
Apache-2.0
OpenThinker3-7B-GGUF は open-thoughts/OpenThinker3-7B の定量化バージョンで、効率的な推論のために最適化されており、Qwen/Qwen2.5-7B-Instruct をベースに微調整され、数学、コード、科学の問題で優れた性能を発揮します。
大規模言語モデル
Transformers

O
QuantFactory
114
2
Phi 3 Mini 4k Instruct GGUF
MIT
Phi-3-Mini-4K-Instructは38億パラメータの軽量で最先端のオープンソースモデルで、Phi-3データセットを使用して訓練され、高品質と推論集中特性に重点を置いています。
大規模言語モデル
P
brittlewis12
170
1
Dsi Transformers Code T5 Base Python
Apache-2.0
Salesforce/codet5-baseをベースに微調整されたコード処理モデルで、Pythonコード関連のタスクに特化しています。
大規模言語モデル
Transformers

D
ngocnamk3er
342
1
Whiterabbitneo WhiteRabbitNeo V3 7B GGUF
Apache-2.0
WhiteRabbitNeo-V3-7BのLlamacpp imatrix量子化バージョンで、サイバーセキュリティとDevOpsタスクに特化し、コード生成をサポートします。
大規模言語モデル
W
bartowski
1,166
2
Seed Coder 8B Instruct GGUF
MIT
Seed - Coder - 8B - Instructは強力なオープンソースコードモデルで、モデル中心、透明性、高性能などの特徴を持ち、様々なコーディングタスクで優れた性能を発揮します。
大規模言語モデル
Transformers

S
unsloth
3,391
1
Seed Coder 8B Reasoning GGUF
MIT
Seed-Coder-8B-Reasoningは8B規模のオープンソースコードモデルで、コード生成と推論タスクに特化しており、強力な性能と効率的なパラメータ利用を備えています。
大規模言語モデル
Transformers

S
unsloth
2,550
2
Qwen2.5 Coder 7B NEP Fix
Apache-2.0
Qwen/Qwen2.5-Coder-7Bモデルを基にUnslothとTRLライブラリを使用してトレーニング最適化されたテキスト生成推論モデルで、トレーニング速度が2倍向上
大規模言語モデル
Transformers 英語

Q
lurf21
20
1
Bytedance Seed.Seed Coder 8B Reasoning GGUF
Seed-Coder-8B-Reasoning は ByteDance-Seed によって開発された 8B パラメータ規模の大規模言語モデルで、コード生成と推論タスクに特化しています。
大規模言語モデル
B
DevQuasar
1,978
1
Andrewzh Absolute Zero Reasoner Coder 7b GGUF
andrewzhのAbsolute_Zero_Reasoner-Coder-7bモデルを基にしたLlamacpp量子化バージョンで、複数の量子化レベルをサポートし、推論やコード生成タスクに適しています。
大規模言語モデル
A
bartowski
1,325
5
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct は Qwen2.5 アーキテクチャに基づく 7B パラメータ規模のコード生成モデルで、命令微調整に特化しており、コード生成やプログラミング支援タスクに適しています。
大規模言語モデル
PyTorch
A
averntech
87
1
Ophiuchi Qwen3 14B Instruct
Apache-2.0
Qwen3-14Bアーキテクチャに基づく命令微調整モデルで、数学的推論、コード生成、事実の正確性に特化
大規模言語モデル
Transformers 複数言語対応

O
prithivMLmods
21
3
Spec T1 RL 7B
MIT
Spec-T1-RL-7Bは、数学的推論、アルゴリズム問題の解決、コード生成に特化した高精度の大規模言語モデルで、技術ベンチマークテストで卓越した性能を発揮します。
大規模言語モデル
Safetensors 英語
S
SVECTOR-CORPORATION
4,626
6
Phi 4 Mini Reasoning MLX 4bit
MIT
これは、マイクロソフトのPhi-4-mini-reasoningモデルを変換したMLX形式の4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
P
lmstudio-community
72.19k
2
Falcon H1 1.5B Instruct
その他
ファルコン-H1はTIIが開発した効率的なハイブリッドアーキテクチャの言語モデルで、TransformersとMambaアーキテクチャの利点を組み合わせ、英語と多言語タスクをサポートします。
大規模言語モデル
Transformers

F
tiiuae
1,022
4
Phi 4 Reasoning GGUF
MIT
Phi-4-reasoningはPhi-4をファインチューニングした先進的な推論モデルで、教師付きファインチューニングと強化学習により、数学、科学、コーディングなどの分野で卓越した推論能力を発揮します。
大規模言語モデル
Transformers

P
unsloth
6,046
7
Seed Coder 8B Reasoning
MIT
Seed-Coder-8B-推論版は8B規模のオープンソースコードモデルで、強化学習により推論能力を向上させ、65,536のコンテキスト長をサポートし、プログラミングタスクで優れた性能を発揮します。
大規模言語モデル
Transformers

S
ByteDance-Seed
4,622
102
Tablellm 13b
TableLLMは、表データ操作タスクに特化して設計された大規模言語モデルで、実際のオフィスシナリオにおける表データ処理ニーズに対応します。
大規模言語モデル
Transformers 英語

T
RUCKBReasoning
100
27
Gemma 3 27b It Qat GGUF
Gemma 3はGoogleがGemini技術に基づいて構築した軽量オープンモデルシリーズで、マルチモーダル入力とテキスト出力をサポートし、128Kの大規模コンテキストウィンドウと140以上の言語サポートを備えています。
テキスト生成画像 英語
G
unsloth
2,683
3
Phi 4 Reasoning Plus
MIT
Phi-4-reasoning-plus はマイクロソフトリサーチが開発した先進的なオープンウェイト推論モデルで、Phi-4を基に教師ありファインチューニングと強化学習で最適化され、数学、科学、コーディング分野の高度な推論能力に特化しています。
大規模言語モデル
Transformers 複数言語対応

P
microsoft
19.83k
261
Deepcoder 14B Preview Exl2
DeepCoder-14B-PreviewはDeepSeek-R1-Distill-Qwen-14Bを基に開発されたコード生成モデルで、検証可能なプログラミング問題の解決に特化しています。
大規模言語モデル 英語
D
cgus
46
2
Phi 4 Reasoning
MIT
Phi-4推論はPhi-4を基に、教師あり微調整の思考連鎖軌跡データセットと強化学習で訓練された最先端のオープンウェイト推論モデルで、数学、科学、プログラミングスキルに特化しています。
大規模言語モデル
Transformers 複数言語対応

P
microsoft
11.31k
172
Huihui Ai.deepseek V3 0324 Pruned Coder 411B GGUF
DeepSeek-V3-0324-Pruned-Coder-411B は、DeepSeek-V3 アーキテクチャに基づく、コード生成タスクに特化した剪枝最適化済みのコード生成モデルです。
大規模言語モデル
H
DevQuasar
2,706
2
Olympiccoder 32B GGUF
Apache-2.0
OlympicCoder-32BはQwen2.5-Coder-32B-Instructをベースとしたコード生成モデルで、IQ-DynamicGate超低位量子化技術を採用し、メモリ制約環境下での効率的な推論に適しています。
大規模言語モデル 英語
O
Mungert
361
3
Qwen2.5 14B YOYO V5
Apache-2.0
Qwen2.5-YOYO第五世代モデル、複数の先進モデルの特徴を統合し、モデル統合式を最適化、100万トークンのコンテキストをサポート。
大規模言語モデル
Safetensors 複数言語対応
Q
YOYO-AI
33
3
Gemma 3 12b It Codeforces SFT
google/gemma-3-12b-itをcodeforces-cotsデータセットで微調整した大規模言語モデル
大規模言語モデル
Transformers

G
qgallouedec
43
5
Open R1 OlympicCoder 7B GGUF
Apache-2.0
OlympicCoder-7Bはコード生成に特化した7Bパラメータの大規模言語モデルで、open-r1/OlympicCoder-7Bをllama.cppで量子化したものです。複数の量子化レベルを選択可能です。
大規模言語モデル 英語
O
bartowski
5,859
9
Open R1 OlympicCoder 32B GGUF
Apache-2.0
OlympicCoder-32Bの量子化バージョンで、llama.cppのimatrix量子化手法を基にしており、コード生成タスクに適しています。
大規模言語モデル 英語
O
bartowski
12.60k
12
Theta 35
Apache-2.0
Theta-35はSVECTORが提供するThetaシリーズの高度な推論モデルで、複雑な思考と推論に特化しており、深度のある論理分析と多段階推論が必要な難問で優れた性能を発揮します。
大規模言語モデル
Transformers 英語

T
SVECTOR-CORPORATION
10.44k
5
Kanana Nano 2.1b Base
KananaはKakaoが開発したバイリンガル大規模言語モデルシリーズで、韓国語タスクで優れた性能を発揮し、英語タスクでも競争力を維持しています。2.1bバージョンはこのシリーズの軽量ベースモデルです。
大規模言語モデル
Transformers 複数言語対応

K
kakaocorp
4,039
33
Yulan Mini Instruct
MIT
YuLan-Mini-Instructは24億パラメータのコンパクトながら強力なテキスト生成モデルで、数学とコード推論タスクに特化しており、中英語をサポートしています。
大規模言語モデル
Transformers 複数言語対応

Y
yulan-team
97
2
Qwen2.5 Coder 0.5B Q8 0 GGUF
Apache-2.0
これはQwen2.5-Coder-0.5Bモデルを変換したGGUF形式のモデルで、コード生成タスクに適しています。
大規模言語モデル 複数言語対応
Q
ggml-org
943
5
Deepseek R1 Bf16
MIT
DeepSeek-R1は第一代の推論モデルで、数学、コード、推論タスクで優れた性能を発揮し、その性能はOpenAI-o1に匹敵します。
大規模言語モデル
Transformers

D
opensourcerelease
1,486
16
Granite 8b Code Instruct 128k GGUF
Apache-2.0
IBM Granite 8Bコード指令モデルで、128kの文脈長をサポートし、コード生成と指令理解タスクに特化しています。
大規模言語モデル
Transformers その他

G
tensorblock
186
1
Qwen2.5 Coder 1.5B GGUF
Apache-2.0
Qwen2.5-Coder-1.5Bは15億パラメータのコード生成モデルで、複数のプログラミング言語をサポートし、コード補完と生成タスクに適しています。
大規模言語モデル
Transformers 複数言語対応

Q
tensorblock
162
1
Qwen2.5 Coder 3B Instruct GGUF
その他
Qwen2.5-Coder-3B-Instructモデルに基づいて量子化処理を行い、コード生成と対話インタラクションに対して効率的で便利な解決策を提供します。
大規模言語モデル
Transformers 複数言語対応

Q
gaianet
1,784
2
Llm Jp 3 1.8b
Apache-2.0
日本国立情報学研究所によって開発された大規模言語モデルで、日本語や英語などの多言語をサポートし、自然言語処理タスクに適しています。
大規模言語モデル
Transformers 複数言語対応

L
llm-jp
1,378
14
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98