Diffucoder 7B Cpgrpo 8bit
DiffuCoder-7B-cpGRPO-8bitはMLX形式に変換されたコード生成モデルで、apple/DiffuCoder-7B-cpGRPOをベースに変換され、開発者に高効率なコード生成ツールを提供するために設計されています。
大規模言語モデル その他
D
mlx-community
272
2
Unireason Qwen3 14B RL GGUF
Apache-2.0
UniReason-Qwen3-14B-RLの静的量子化バージョンで、テキスト生成と数学推理の研究シーンに適しています。
大規模言語モデル
Transformers 英語

U
mradermacher
272
1
Gemma 3n E2B GGUF
Google Gemma-3n-E2Bモデルの静的量子化バージョンで、モデルサイズとパフォーマンスのバランスを取るための複数の量子化タイプを提供します。
大規模言語モデル
Transformers 英語

G
mradermacher
207
0
Delta Vector Austral 70B Winton GGUF
Apache-2.0
これはDelta-VectorのAustral-70B-Wintonモデルに対する量子化処理バージョンで、量子化技術を通じてモデルの保存と計算リソースの必要量を削減し、同時に良好な性能を維持し、リソースが限られたシナリオに適しています。
大規模言語モデル 英語
D
bartowski
791
1
Neobert GGUF
MIT
これはchandar - lab/NeoBERTモデルの静的量子化バージョンで、モデルの保存スペースと計算リソースの要件を削減することを目的としています。
大規模言語モデル
Transformers 英語

N
mradermacher
219
1
Gama 12b I1 GGUF
Gama-12Bの量子化バージョンで、複数の量子化タイプのファイルを提供し、テキスト生成タスクに適しており、英語とポルトガル語をサポートします。
大規模言語モデル
Transformers 複数言語対応

G
mradermacher
559
1
Gama 12b GGUF
Gama-12Bは多言語対応の大規模言語モデルで、さまざまな量子化バージョンを提供して、異なる性能と精度の要件に対応します。
大規模言語モデル
Transformers 複数言語対応

G
mradermacher
185
1
Longwriter Zero 32B I1 GGUF
Apache-2.0
LongWriter-Zero-32B 量子化モデルは、THU-KEG/LongWriter-Zero-32B 基礎モデルに基づいており、中英バイリンガルをサポートし、強化学習やライティングなどの長文脈シナリオに適しています。
大規模言語モデル
Transformers 複数言語対応

L
mradermacher
135
1
Nvidia AceReason Nemotron 1.1 7B GGUF
その他
これはNVIDIA AceReason - Nemotron - 1.1 - 7Bモデルの量子化バージョンで、異なるハードウェアでのモデルの実行効率を最適化し、一定の性能と品質を維持します。
大規模言語モデル 複数言語対応
N
bartowski
1,303
1
Openbuddy OpenBuddy R1 0528 Distill Qwen3 32B Preview0 QAT GGUF
Apache-2.0
これはOpenBuddy-R1-0528-Distill-Qwen3-32B-Preview0-QATの量子化バージョンで、量子化技術を利用して、さまざまなハードウェア条件下でより効率的にモデルを実行できます。
大規模言語モデル 複数言語対応
O
bartowski
720
1
Wan2.1 T2V 14B FusionX VACE GGUF
Apache-2.0
これはテキストからビデオへの量子化モデルで、特定の基礎モデルに基づいて量子化変換が行われ、さまざまなビデオ生成タスクをサポートします。
テキスト生成ビデオ 英語
W
QuantStack
461
3
Deepseek R1 0528 Qwen3 8B 6bit
MIT
DeepSeek-R1-0528-Qwen3-8Bモデルを基に変換された6ビット量子化バージョンで、MLXフレームワークのテキスト生成タスクに適しています。
大規模言語モデル
D
mlx-community
582
1
Blitzar Coder 4B F.1 GGUF
Apache-2.0
Blitzar-Coder-4B-F.1は、Qwen3-4Bをベースに微調整された、10種類以上のプログラミング言語をサポートする高効率の多言語コーディングモデルです。優れたコード生成、デバッグ、推論能力を備えています。
大規模言語モデル
Transformers

B
prithivMLmods
267
1
Qwen2.5 VL 7B Instruct Gemlite Ao A8w8
Apache-2.0
これはA8W8量子化されたマルチモーダル大規模言語モデルで、Qwen2.5-VL-7B-Instructに基づいており、視覚と言語のタスクをサポートします。
画像生成テキスト
Transformers

Q
mobiuslabsgmbh
161
1
Echelon AI Med Qwen2 7B GGUF
このプロジェクトは、Echelon-AI/Med-Qwen2-7BモデルのGGUF量子化ファイルを提供しており、Featherless AIによってサポートされています。モデルの性能を向上させ、実行コストを削減することを目的としています。
大規模言語モデル
E
featherless-ai-quants
183
1
Deepseek Ai DeepSeek R1 Distill Qwen 14B GGUF
DeepSeek-R1-Distill-Qwen-14Bは、14Bパラメータ規模の最適化された大規模言語モデルで、DeepSeek AIによってリリースされ、Qwenアーキテクチャに基づいて蒸留され、性能向上のために複数のGGUF量子化バージョンを提供します。
大規模言語モデル
D
featherless-ai-quants
237
1
Gemma 3n E4B It
Gemma 3nはGoogleが開発した軽量で最先端のオープンソースのマルチモーダルモデルファミリーで、Geminiモデルと同じ研究と技術に基づいて構築され、テキスト、オーディオ、ビジュアル入力をサポートします。
画像生成テキスト
Transformers

G
google
1,690
81
Bielik 11B V2.6 Instruct GGUF
Apache-2.0
Bielik-11B-v2.6-Instructはポーランド語の大規模言語モデルで、SpeakLeashとACK Cyfronet AGHによって開発され、Bielik-11B-v2をベースに微調整され、命令追従タスクに適しています。
大規模言語モデル
Transformers

B
speakleash
206
5
Phi 3.5 Mini Instruct
MIT
Phi-3.5-mini-instructは、Phi-3で使用されるデータセットに基づいて構築された、軽量で先進的なオープンソースモデルです。高品質で推論に富んだデータに焦点を当てています。128Kトークンのコンテキスト長をサポートし、強力な多言語能力と長いコンテキスト処理能力を備えています。
大規模言語モデル
Transformers その他

P
Lexius
129
1
Deepseek R1 0528 GGUF
MIT
DeepSeek-R1-0528に基づく量子化モデルで、テキスト生成タスクに特化し、より効率的な使用方法を提供します。
大規模言語モデル
D
lmstudio-community
1,426
5
Microsoft Phi 4 Reasoning Plus GGUF
MIT
マイクロソフトPhi-4-reasoning-plusの量子化バージョンで、リソースが限られたデバイスでの高効率なテキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
M
bartowski
1,516
10
Llava 1.5 13b Hf I1 GGUF
このプロジェクトは、llava-1.5-13b-hfモデルの重み/行列量子化バージョンを提供し、さまざまな量子化タイプが選択可能で、異なるシナリオでの使用ニーズに対応します。
テキスト生成画像
Transformers 英語

L
mradermacher
332
1
Ritrieve Zh V1 GGUF
MIT
このプロジェクトでは、richinfoai/ritrieve_zh_v1 モデルの静的量子化バージョンを提供しています。量子化処理により、記憶領域と計算リソースの要件を削減し、一定のパフォーマンスを維持します。
大規模言語モデル
Transformers 中国語

R
mradermacher
212
1
Google Gemma 2 27b It AWQ
Gemma 2 27B ITは、AutoAWQ量子化に基づく4ビットの大規模言語モデルで、対話と命令追従タスクに適しています。
大規模言語モデル
Safetensors
G
mbley
122
2
Gemma 2 2b It Tool Think
MIT
google/gemma-2b-itをファインチューニングしたテキスト生成モデル、ツール呼び出し思考プロセスをサポート
大規模言語モデル
Transformers

G
langdai
36
2
Gemma 3 12b It GGUF
Gemma 3 12Bは大型言語モデルで、GGUF形式の量子化バージョンを提供し、ローカルデプロイと使用に適しています。
大規模言語モデル
Transformers

G
tensorblock
336
1
Meta Llama 3.1 8B Instruct Unsloth Bnb 4bit
Unslothによって最適化されたLlama 3.2 (3B)モデルで、微調整速度が2 - 5倍向上し、メモリ使用量が70%節約されます。
大規模言語モデル
Transformers 英語

M
unsloth
72.05k
3
Llama 3.3 70B Instruct AWQ
Llama-3.3-70B-InstructのAWQ 4ビット量子化バージョンで、Meta AIによって開発され、複数の言語をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
Transformers 複数言語対応

L
kosbu
379.28k
6
Qwen2.5 Coder 14B Instruct Abliterated GGUF
Apache-2.0
Qwen2.5-Coder-14B-Instruct-abliteratedの量子化バージョンで、複数の量子化タイプをサポートし、さまざまなハードウェア条件に適しています。
大規模言語モデル
Q
bartowski
1,240
12
Qwen2.5 Coder 1.5B GGUF
Apache-2.0
Qwen2.5-Coder-1.5Bは15億パラメータのコード生成モデルで、複数のプログラミング言語をサポートし、コード補完と生成タスクに適しています。
大規模言語モデル
Transformers 複数言語対応

Q
tensorblock
162
1
Nasiruddin15 Mistral Dolphin 2.8 Grok Instract 2 7B Slerp GGUF
これはMistralアーキテクチャに基づく7Bパラメータのモデルで、量子化最適化を行い、さまざまなGGUF量子化バージョンを提供して、異なるハードウェア要件に対応します。
大規模言語モデル
N
featherless-ai-quants
127
2
Gemma 2 Baku 2b It GGUF
これはrinna社のgemma-2-baku-2b-itモデルのGGUF形式変換バージョンで、K量子化とiMatrix技術を適用しています。
大規模言語モデル
Transformers 複数言語対応

G
MCZK
195
2
Llama 3 2 1b Sft
NousResearch/Llama-3.2-1Bモデルをultrachat_200kデータセットで微調整したバージョンで、対話タスクの最適化に特化しています。
大規模言語モデル
Transformers

L
wassname
637
1
Llama Guard 3 1B
Llama Guard 3-1Bは、Llama-3.2-1Bの事前学習モデルを微調整したコンテンツセキュリティ分類モデルで、LLMの入力と応答のコンテンツをセキュリティ分類するために使用されます。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
73.88k
81
Llama3 8B 1.58 100B Tokens GGUF
Meta-Llama-3-8B-InstructとHF1BitLLM/Llama3-8B-1.58-100B-tokensモデルを基に変換されたGGUF形式のモデルで、llama.cpp推論に適しています。
大規模言語モデル
Transformers

L
brunopio
2,035
16
H2o Danube3 4b Chat
Apache-2.0
H2O.aiが微調整した40億パラメータのチャットモデルで、テキスト生成タスクをサポートし、携帯電話でオフラインで動作できます。
大規模言語モデル
Transformers 英語

H
h2oai
41.49k
67
BAAI Bge M3 Int8
MIT
BAAI/bge-m3のONNX INT8量子化バージョンで、密集検索タスクに適しており、Vespa Embeddingとの互換性を最適化しています。
テキスト埋め込み
Transformers

B
libryo-ai
1,007
1
Nxcode CQ 7B Orpo IMat GGUF
その他
これはNTQAI/Nxcode-CQ-7B-orpoモデルのLlama.cpp imatrix量子化バージョンで、さまざまな量子化タイプのファイルを提供し、さまざまなシナリオのニーズに対応しています。
大規模言語モデル
N
legraphista
411
1
Mistral 7B Instruct V0.3 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.3は、Mistral-7B-v0.3をベースに命令微調整を行った大規模言語モデルで、関数呼び出しと拡張語彙表をサポートしています。
大規模言語モデル
M
SanctumAI
34.61k
9
Smart Lemon Cookie 7B GGUF
GGUF形式に基づく無審査ロールプレイングモデルで、優れた推論と文脈追跡能力を持ち、ローカルAIチャットアプリに適しています。
大規模言語モデル
Transformers

S
backyardai
811
9
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98