Diffucoder 7B Cpgrpo 4bit
DiffuCoder-7B-cpGRPO-4bitは、AppleのDiffuCoder-7B-cpGRPOモデルを基に変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化されています。
大規模言語モデル その他
D
mlx-community
218
1
Kimi Dev 72B GGUF
MIT
Kimi-Dev-72Bの量子化バージョンで、先進的な非線形最適量子化とマルチヘッド潜在注意力機構を採用し、ストレージと計算要件を削減します。
大規模言語モデル その他
K
ubergarm
2,780
1
Delta Vector Austral 24B Winton GGUF
Apache-2.0
Delta-VectorのAustral-24B-Wintonモデルの量子化バージョンで、llama.cppツールを使用して量子化処理を行い、さまざまなハードウェア構成での効率的な実行に適しています。
大規模言語モデル 英語
D
bartowski
421
1
Acereason Nemotron 14B GGUF
AceReason-Nemotron-14Bは強化学習によって訓練された数学とコード推論モデルで、複数の数学とコード推論の基準テストで優れた成績を収めています。
大規模言語モデル
Transformers

A
QuantFactory
326
2
Motif 2.6B
その他
Motif 2.6Bは26億のパラメータを持つ言語モデルで、AMD Instinct™ MI250 GPU上で最初から訓練され、人間の価値観に沿った、有用で信頼できるAIを構築することを目的としています。
大規模言語モデル
Safetensors 複数言語対応
M
Motif-Technologies
1,470
29
Qwen3 235B A22B 4bit DWQ 053125
Apache-2.0
これはQwen3-235B-A22B-8ビットモデルから変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化され、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
200
1
Phantom Wan 1.3B GGUF
Apache-2.0
これはbytedance-research/PhantomモデルのGGUF直接変換バージョンで、ComfyUIでComfyUI-GGUFカスタムノードと組み合わせて使用できます。
テキスト生成ビデオ 英語
P
QuantStack
174
0
Phantom Wan 1.3B GGUF
Apache-2.0
これはbytedance-research/Phantomを直接GGUF形式に変換したプロジェクトで、画像から動画への変換タスクに使用されます。
テキスト生成ビデオ 英語
P
QuantStack
315
3
Deepseek R1 0528 Qwen3 8B MLX 8bit
MIT
DeepSeek-R1-0528-Qwen3-8Bモデルに基づく8ビット量子化バージョンで、Apple Siliconチップ用に最適化され、テキスト生成タスクに適しています。
大規模言語モデル
D
lmstudio-community
151.87k
2
Llama 3.3 70b Instruct Deepseek Distilled GGUF
Apache-2.0
unsloth/Llama-3.3-70B-Instruct-bnb-4bitをベースに微調整された多言語テキスト生成モデルで、英語、スペイン語、ラテン語、アラビア語、フランス語をサポートします。
大規模言語モデル
Transformers 複数言語対応

L
ykarout
202
1
Dans PersonalityEngine V1.3.0 24b Q4 K M GGUF
Apache-2.0
Mistral-Small-3.1-24B-Base-2503に基づく多言語テキスト生成モデルで、10種類の言語をサポートし、ロールプレイングと対話シーンに適しています。
大規模言語モデル
Transformers

D
King-Cane
596
1
Gemma 3 1b It Fast GUFF
低スペックハードウェアとCPU専用環境向けに最適化された量子化バージョン、リソース制約下でプロダクション利用可能な推論設定
大規模言語モデル
G
h4shy
101
1
Llava 1.5 7b Hf Q4 K M GGUF
このモデルはllava-hf/llava-1.5-7b-hfから変換されたGGUF形式モデルで、画像テキスト生成タスクをサポートします。
画像生成テキスト 英語
L
Marwan02
30
1
Seed Coder 8B Reasoning Bf16 Q6 K GGUF
MIT
これはByteDance-Seed/Seed-Coder-8B-Reasoning-bf16から変換されたGGUF形式のモデルで、コード生成と推論タスクに適しています。
大規模言語モデル
S
GrimsenClory
100
1
Magtie V1 12B GGUF
Apache-2.0
MagTie-v1-12BのGGUF量子化バージョンセットで、mergekitツールを使用して事前訓練された言語モデルを統合し作成され、テキスト生成タスクに適しています。
大規模言語モデル
Transformers

M
grimjim
373
2
Bielik 4.5B V3.0 Instruct GGUF
Apache-2.0
Bielik-4.5B-v3.0-Instruct-GGUFはSpeakLeashがリリースしたポーランド語大規模言語モデルで、Bielik-4.5B-v3.0-InstructをGGUF量子化フォーマットに変換したもので、ローカル推論に適しています。
大規模言語モデル その他
B
speakleash
693
4
Qwen3 8B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、密モデルと混合専門家(MoE)モデルの完全なスイートを提供します。大規模なトレーニングに基づき、Qwen3は推論能力、命令追従、エージェント機能、および多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Q
Qwen
4,474
8
Qwen Qwen3 8B GGUF
Apache-2.0
Qwen3-8BのGGUF形式量子化バージョン、TensorBlock提供、llama.cpp互換
大規模言語モデル
Q
tensorblock
452
1
Nousresearch DeepHermes 3 Llama 3 3B Preview GGUF
Llama-3-3Bアーキテクチャをベースにした命令ファインチューニングモデルで、対話、推論、ロールプレイなどのタスクをサポートし、汎用人工知能アシスタントシナリオに適しています。
大規模言語モデル 英語
N
bartowski
1,033
3
Llama 3 8B Instruct Abliterated TR
LLaMA-3-8B-Instructのアブレーションバージョンで、特定の技術手段によりモデルにトルコ語で応答させる
大規模言語モデル
Transformers その他

L
Metin
25
5
Ring Lite Linear Preview
MIT
玲瓏線形プレビュー版はInclusionAIによってオープンソースで公開されたハイブリッド線形スパース大規模言語モデルで、総パラメータ数は17.1B、活性化パラメータ数は3.0Bです。このモデルはハイブリッド線形アテンションメカニズムに基づいて長文推論を実現し、推論プロセスにおいてほぼ線形の計算複雑性とほぼ一定の空間複雑性を持ちます。
大規模言語モデル 複数言語対応
R
inclusionAI
25
8
Zero Mistral 24B Gguf
MIT
Zero-Mistral-24B は Mistral アーキテクチャに基づく大規模言語モデルで、ロシア語と英語をサポートし、対話やテキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
Z
ZeroAgency
613
3
Deepseek R1 GGUF UD
MIT
DeepSeek-R1 は効率的な大規模言語モデルで、Unsloth Dynamic v2.0 量子化技術を採用し、卓越した精度を実現しています。
大規模言語モデル 英語
D
unsloth
3,149
11
Google Gemma 3 27b It Qat GGUF
Google Gemma 3 270億パラメータ命令調整モデルの量子化バージョンで、量子化対応トレーニング(QAT)重み生成を採用し、さまざまなハードウェア要件に対応する複数の量子化レベルをサポートします。
大規模言語モデル
G
bartowski
14.97k
31
Orpheus 3b Kaya Q2 K.gguf
Apache-2.0
Canopy Labsの事前学習モデルをファインチューニングしたテキスト音声変換モデルで、英語をサポートし、GGUF Q2_K量子化フォーマットにより効率的な推論を実現
音声合成 複数言語対応
O
lex-au
39
0
Orpheus 3b Kaya Q4 K M.gguf
Apache-2.0
Canopy Labsの事前学習モデルをファインチューニングしたテキスト読み上げモデル、量子化後は効率的な推論をサポート
音声合成 複数言語対応
O
lex-au
98
0
Orpheus 3b Kaya FP16.gguf
Apache-2.0
Canopy Labsの事前学習モデルをファインチューニングしたテキスト読み上げ(TTS)モデルで、GGUF FP16形式に量子化され効率的な推論を実現
音声合成 複数言語対応
O
lex-au
45
0
Orpheus 3b Kaya Q8 0.gguf
Apache-2.0
Canopy Labsの事前学習モデルをファインチューニングした8ビット量子化テキスト音声変換モデル、英語24kHz音声生成をサポート
音声合成 複数言語対応
O
lex-au
38
0
Gemma 3 12b It GPTQ 4b 128g
このモデルはgoogle/gemma-3-12b-itをINT4量子化したバージョンで、GPTQアルゴリズムによりパラメータを16ビットから4ビットに削減し、ディスク容量とGPUメモリ要件を大幅に削減しました。
画像生成テキスト
Transformers

G
ISTA-DASLab
1,175
2
3b Hi Ft Research Release Q4 K M GGUF
Apache-2.0
これはcanopylabs/3b-hi-ft-research_releaseモデルを変換したGGUFフォーマットのモデルで、ヒンディー語テキスト処理をサポートします。
大規模言語モデル その他
3
freddyaboulton
123
0
Phi 4 Mini Instruct 8da4w
MIT
Phi-4-miniはPyTorchチームによって開発された量子化言語モデルで、8ビット埋め込みと8ビット動的活性化、および4ビット重み線形層(8da4w)の量子化スキームを採用しており、モバイルデバイスへの展開に適しています。
大規模言語モデル
Transformers その他

P
pytorch
780
1
Meta Llama Llama 4 Scout 17B 16E Instruct Old GGUF
その他
Llama-4-Scout-17B-16E-InstructはMetaがリリースした17Bパラメータの命令微調整大規模言語モデルで、量子化処理を行って実行効率を向上させています。
大規模言語モデル 複数言語対応
M
bartowski
3,142
30
Gemma 3 4b It Abliterated Q4 0 GGUF
このモデルはmlabonne/gemma-3-4b-it-abliteratedのGGUF形式変換バージョンで、x-ray_alphaの視覚コンポーネントを統合し、よりスムーズなマルチモーダル体験を提供します。
画像生成テキスト
G
BernTheCreator
160
1
Gemma 3 4b It Q4 0
Gemma 3 4B Instruct は Google が開発した40億パラメータの大規模言語モデルで、テキスト生成と理解タスクに特化しています。
大規模言語モデル
G
danchev
24
0
Doge 120M MoE Instruct
Apache-2.0
Dogeモデルは動的マスクアテンション機構を使用してシーケンス変換を行い、多層パーセプトロンまたはクロスドメイン混合エキスパートを使用して状態変換が可能です。
大規模言語モデル
Transformers 英語

D
SmallDoge
240
1
Bge Reranker Base Q4 K M GGUF
MIT
BAAI/bge-reranker-baseモデルを変換したGGUF形式のリランキングモデルで、中国語と英語のテキストランキングタスクをサポート
テキスト埋め込み 複数言語対応
B
sabafallah
44
0
Turkish Llama 3 8B Function Calling GGUF
Apache-2.0
これはTurkish-Llama-8b-DPO-v0.1モデルをファインチューニングしたトルコ語関数呼び出しモデルで、トルコ語の関数呼び出しタスクを実行するために特別に設計されています。
大規模言語モデル
Transformers 複数言語対応

T
oncu
103
1
Qwen2.5 VL 7B Instruct Q8 0 GGUF
Apache-2.0
このモデルはQwen2.5-VL-7B-Instructを変換したGGUF形式のモデルで、マルチモーダルタスクをサポートし、画像とテキストのインタラクティブな処理に適しています。
テキスト生成画像 英語
Q
cxtb
72
1
Qwen2.5 VL 7B Instruct Q4 K M GGUF
Apache-2.0
これはQwen2.5-VL-7B-InstructモデルのGGUF量子化バージョンで、マルチモーダルタスクに適しており、画像とテキスト入力をサポートします。
画像生成テキスト 英語
Q
PatataAliena
69
1
Fibonacci 2 14B
MIT
Phi 4アーキテクチャに基づく大規模言語モデルで、140億のパラメータを持ち、自然言語処理とテキスト対話タスクに最適化されています。
大規模言語モデル 複数言語対応
F
fibonacciai
97
13
- 1
- 2
- 3
- 4
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98