Acereason Nemotron 14B GGUF
AceReason-Nemotron-14Bは強化学習によって訓練された数学とコード推論モデルで、複数の数学とコード推論の基準テストで優れた成績を収めています。
大規模言語モデル
Transformers

A
QuantFactory
326
2
Acereason Nemotron 7B GGUF
AceReason-Nemotron-7Bは強化学習に基づいて訓練された数学とコードの推論モデルで、DeepSeek-R1-Distilled-Qwen-7Bから訓練を開始し、複数の基準テストで優れた成績を収めています。
大規模言語モデル
Transformers

A
QuantFactory
326
2
Areal Boba 2 8B
Apache-2.0
AReaLはアリババグループによって開発された非同期強化学習訓練システムで、大型推論モデル向けに設計され、高速訓練と最先端の性能をサポートします。
大規模言語モデル
Transformers

A
inclusionAI
1,294
2
Devstral Small 2505.w4a16 Gptq
Apache-2.0
これはmistralai/Devstral-Small-2505モデルに基づく4ビットGPTQ量子化バージョンで、消費者向けハードウェア用に最適化されています。
大規模言語モデル
Safetensors
D
mratsim
557
1
Acereason Nemotron 7B
その他
強化学習でトレーニングされた数学とコード推論モデル、DeepSeek-R1-Distilled-Qwen-7Bをベースに、数学とコード推論タスクで優れたパフォーマンスを発揮
大規模言語モデル
Transformers

A
nvidia
4,278
10
SWE Agent LM 32B GGUF
Apache-2.0
SWE-agent-LM-32Bはオープンソースのソフトウェアエンジニアリング言語モデルで、Qwen/Qwen2.5-Coder-32B-Instructをベースに微調整され、ソフトウェアエンジニアリングタスク向けに設計されています。
大規模言語モデル
Transformers 英語

S
Mungert
2,933
1
Marin 8b Instruct
Apache-2.0
Marin 8Bはオープンソースの8Bパラメータ規模の大規模言語モデルで、Llamaアーキテクチャに基づいて開発され、英語テキスト生成タスクをサポートします。
大規模言語モデル
Safetensors 英語
M
marin-community
239
1
Seed Coder Triton 8b V1
MIT
ByteDance - Seed/Seed - Coder - 8B - Baseモデルを特定のデータセットで微調整した大規模言語モデルで、長シーケンス入力と効率的なトレーニング戦略をサポートします。
大規模言語モデル
Transformers

S
winglian
1,388
1
Seed Coder 8B Reasoning Bf16
MIT
Seed-Coderは8B規模のオープンソースコードモデルファミリーで、基本版、指導版、推論版を含みます。推論版は強化学習トレーニングにより推論能力を向上させ、64Kのコンテキスト長をサポートします。
大規模言語モデル
Transformers

S
ByteDance-Seed
4,382
9
Falcon H1 34B Instruct GPTQ Int8
その他
ファルコン-H1はTIIが開発した高性能ハイブリッドアーキテクチャ言語モデルで、TransformersとMambaアーキテクチャの利点を組み合わせ、英語と多言語タスクをサポートします。
大規模言語モデル
Transformers

F
tiiuae
105
3
Andrewzh Absolute Zero Reasoner Coder 14b GGUF
andrewzhのAbsolute_Zero_Reasoner-Coder-14bモデルを基に、llama.cppを使用してimatrix量子化を施したバージョンで、推論とコード生成タスクに適しています。
大規模言語モデル
A
bartowski
1,995
5
Falcon H1 1.5B Base
その他
Falcon-H1はTIIが開発したTransformers + Mambaアーキテクチャのハイブリッドなデコーダのみの因果モデルで、英語と多言語タスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

F
tiiuae
454
2
Phi 4 Reasoning Plus
MIT
Phi-4推論強化版はマイクロソフトリサーチが開発した140億パラメータのオープンソース推論モデルで、教師あり微調整と強化学習による最適化を経ており、数学、科学、プログラミング分野の高度な推論能力に特化しています。
大規模言語モデル
Transformers 複数言語対応

P
unsloth
189
2
GLM 4 9B 0414 GGUF
MIT
GLM-4-9B-0414はGLMファミリーの軽量メンバーで、90億のパラメータを持ち、数学的推論と汎用タスクで優れたパフォーマンスを発揮し、リソースが制限されたシナリオに効率的なソリューションを提供します。
大規模言語モデル 複数言語対応
G
unsloth
4,291
9
Granite 4.0 Tiny Preview
Apache-2.0
Granite-4-Tiny-Previewは70億パラメータの細粒度混合エキスパート(MoE)命令ファインチューニングモデルで、Granite-4.0-Tiny-Base-Previewを基に開発され、汎用命令追従タスクに適しています。
大規模言語モデル
Transformers

G
ibm-granite
7,906
108
Olympiccoder 7B GGUF
Apache-2.0
OlympicCoder-7BはQwen2.5-Coder-7B-Instructを最適化したコード生成モデルで、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ制約環境向けに設計されています。
大規模言語モデル 英語
O
Mungert
849
3
Qwen2.5 Recursive Coder 14B Instruct
Apache-2.0
Qwen2.5アーキテクチャに基づく14Bパラメータ規模のコード生成・理解モデル、Model Stock手法により複数の専門コーディングモデルを統合
大規模言語モデル
Transformers

Q
spacematt
39
2
Deepcoder 14B Preview GGUF
MIT
IQ-DynamicGate技術を採用した超低位量子化(1-2ビット)モデルで、メモリ制約のあるデバイスやエッジコンピューティングシナリオに適しています
大規模言語モデル 英語
D
Mungert
1,764
6
Qwen2.5 CompositeFlow Coder 14B Instruct
Apache-2.0
Qwen2.5-Coder-14B-Instructベースモデルを基に、mergekitツールで複数の専門コーディングモデルを統合したハイブリッドモデル
大規模言語モデル
Transformers

Q
spacematt
31
3
GLM 4 32B Base 0414
MIT
GLM-4-32B-Base-0414は320億パラメータ規模の大規模言語モデルで、15Tの高品質データで事前学習されており、中国語と英語をサポートし、コード生成や関数呼び出しなどのタスクで優れた性能を発揮します。
大規模言語モデル
Transformers 複数言語対応

G
THUDM
995
21
Burtenshaw GemmaCoder3 12B GGUF
burtenshaw/GemmaCoder3-12Bをベースにした量子化バージョンで、コード生成タスクに最適化されており、さまざまなハードウェア要件に対応するために複数の量子化レベルをサポートしています。
大規模言語モデル
B
bartowski
9,066
8
Z1 7B
MIT
Z1はQwen2.5-Coder-7B-Instructをベースにした大規模言語モデルで、思考転移を通じた効率的な推論に特化しています。
大規模言語モデル
Transformers

Z
efficientscaling
125
18
Qwen2.5 Coder 32B YOYO
Qwen2.5-Coder-32B-instructはQwen2.5-Coder-32Bを基にした命令微調整バージョンで、コード生成と理解タスクに特化しています。
大規模言語モデル
Transformers

Q
YOYO-AI
14
2
YOYO O1 32B V2
オープンソースコミュニティで最高峰の32B推論モデルとコードモデルを融合し、SCEマージ技術を採用してQwen2.5-Coder-32Bをベースモデルとして統合しました。
大規模言語モデル
Transformers

Y
YOYO-AI
29
2
Qwq Coder 32B
Qwenシリーズモデルを統合した32Bパラメータの大規模言語モデルで、コード生成と理解タスクに特化
大規模言語モデル
Transformers

Q
YOYO-AI
490
7
Pocketdoc Dans PersonalityEngine V1.2.0 24b GGUF
Apache-2.0
PocketDoc/Dans-PersonalityEngine-V1.2.0-24bを基にしたLlamacpp imatrix量子化バージョンで、様々な量子化オプションをサポートし、テキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
P
bartowski
16.73k
23
Dolphin3.0 Llama3.2 3B GGUF
Llama3.2アーキテクチャに基づく3Bパラメータの大規模言語モデルで、英文テキスト生成タスクをサポートし、llama.cppを使用したimatrix量子化を採用
大規模言語モデル 英語
D
bartowski
5,665
15
Opencerebrum 1.0 7b SFT GGUF
Apache-2.0
OpenCerebrum-1.0-7b-SFTはLocutusque/OpenCerebrum-1.0-7b-SFTに基づく静的量子化モデルで、複数の量子化バージョンをサポートし、コード生成、数学、化学、生物学などの分野のテキスト生成やQ&Aタスクに適しています。
大規模言語モデル 複数言語対応
O
mradermacher
162
1
Qwen2.5 Coder 1.5B Instruct Abliterated GGUF
Apache-2.0
Qwen2.5-Coder-1.5B-Instruct-abliteratedモデルを基にしたLlamacpp imatrix量子化バージョンで、コード生成とテキスト生成タスクに適しています。
大規模言語モデル 英語
Q
bartowski
729
1
Granite 3.0 3b A800m Instruct
Apache-2.0
IBMが開発した30億パラメータの命令ファインチューニング言語モデル。Granite-3.0アーキテクチャを基にし、多言語タスクと商用アプリケーションをサポート
大規模言語モデル
Transformers

G
ibm-granite
5,240
18
Granite 3.0 8b Instruct
Apache-2.0
Granite-3.0-8B-Instructは、Granite-3.0-8B-Baseをファインチューニングした80億パラメータのモデルで、複数のオープンソース命令データセットと内部合成データセットの組み合わせでトレーニングされています。
大規模言語モデル
Transformers

G
ibm-granite
24.29k
201
API Pack Model
CodeLlama-13b-hfアーキテクチャを基にファインチューニングした大規模言語モデルで、API呼び出し生成タスクに特化して最適化
大規模言語モデル
Transformers

A
apipack
16
1
Chicka Mixtral 3x7b
MIT
3つのMistralアーキテクチャモデルに基づくエキスパート混合大規模言語モデルで、対話、コード、数学タスクに優れています
大規模言語モデル
Transformers

C
Chickaboo
77
3
Mixtral AI CyberCoder 7b
Apache-2.0
これはコード生成とアプリケーション開発に特化したマージモデルで、複数の高品質モデルを融合して作成されました
大規模言語モデル
Transformers その他

M
LeroyDyer
46
4
Opencodeinterpreter DS 33B GGUF
OpenCodeInterpreterはオープンソースのコード生成システムで、コード実行と反復最適化機能を統合することでコード生成能力を向上させます
大規模言語モデル 複数言語対応
O
LoneStriker
278
28
Deepmagic Coder 7b Alt
その他
DeepMagic-Coder-7b は DeepSeek-Coder と Magicoder モデルの統合バージョンで、コード生成とプログラミングタスクに特化しています。
大規模言語モデル
Transformers

D
rombodawg
61
7
Tinymistral 6x248M
Apache-2.0
TinyMistral-6x248MはLazyMergekitツールで6つのTinyMistralバリアントを融合した混合専門家システムで、nampdn-ai/mini-peS2oデータセットで事前学習済み
大規模言語モデル
Transformers

T
M4-ai
51
14
Everyone Coder 33b Base
その他
EveryoneLLMシリーズモデルはコミュニティによって作成され、コミュニティのためにサービスを提供します。これはdeepseek-coder-33b-baseをファインチューニングして作成された専用のコーディングモデルです。
大規模言語モデル
Transformers

E
rombodawg
15
19
Phixtral 2x2 8
MIT
phixtral-2x2_8 は、2つの microsoft/phi-2 モデルを基に構築された初の混合エキスパートモデル(MoE)であり、個々のエキスパートモデルよりも優れたパフォーマンスを発揮します。
大規模言語モデル
Transformers 複数言語対応

P
mlabonne
178
148
Openhermes Llama 3B
Apache-2.0
OpenLlama-3Bを微調整したインストラクション追従モデルで、ロールプレイ、インストラクション追従、コード生成に最適化されています
大規模言語モデル
Transformers 英語

O
cfahlgren1
81
3
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98