Pinkpixel Crystal Think V2 GGUF
Apache-2.0
これはPinkPixelのCrystal-Think-V2モデルを量子化したバージョンで、さまざまなハードウェアと性能要件を満たすために複数の量子化タイプを提供します。
大規模言語モデル 英語
P
bartowski
128
1
Gryphe Codex 24B Small 3.2 GGUF
Apache-2.0
これはGrypheのCodex-24B-Small-3.2モデルの量子化バージョンで、量子化技術によりさまざまなハードウェア条件下での実行効率が最適化されています。
大規模言語モデル 英語
G
bartowski
626
3
Mistralai Mistral Small 3.2 24B Instruct 2506 GGUF
Apache-2.0
これはMistral-Small-3.2-24B-Instruct-2506モデルのLlamacpp imatrix量子化バージョンで、さまざまな量子化タイプを提供して、異なるハードウェアの要件を満たします。
大規模言語モデル 複数言語対応
M
bartowski
3,769
12
Menlo Jan Nano GGUF
Apache-2.0
llama.cppに基づいてMenlo/Jan - nanoモデルを量子化処理し、様々な量子化タイプのモデルファイルを提供し、異なるハードウェアとパフォーマンスの要件を満たします。
大規模言語モデル
M
bartowski
190
1
Cognitivecomputations Qwen3 72B Embiggened GGUF
Apache-2.0
cognitivecomputations/Qwen3-72B-Embiggenedモデルに基づく量子化バージョンで、llama.cppを使用して量子化処理を行い、様々な環境で効率的に動作します。
大規模言語モデル
C
bartowski
826
1
BAAI RoboBrain2.0 7B GGUF
Apache-2.0
これはBAAIのRoboBrain2.0-7Bモデルの量子化バージョンで、llama.cppを通じて量子化処理を行い、さまざまなハードウェアのニーズに対応するための複数の量子化タイプを提供します。
大規模言語モデル
B
bartowski
448
3
Akhil Theerthala Kuvera 8B V0.1.0 GGUF
MIT
Kuvera-8Bは、金融および個人理財分野に特化した80億パラメータの大規模言語モデルで、さまざまな量子化バージョンを提供して、異なるハードウェア要件に対応します。
大規模言語モデル 英語
A
bartowski
793
1
Xlangai Jedi 7B 1080p GGUF
Apache-2.0
これはllama.cppを使用して量子化されたJedi - 7B - 1080pモデルで、ファイルサイズとモデル品質のバランスを取るために複数の量子化タイプが提供されています。
大規模言語モデル 英語
X
bartowski
225
1
E N V Y Legion V2.1 LLaMa 70B Elarablated V0.8 Hf GGUF
Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hfはLLaMa-70Bの量子化バージョンで、llama.cppを使用して最適化され、さまざまなハードウェア要件に対応するための複数の量子化オプションを提供します。
大規模言語モデル
E
bartowski
267
1
Nvidia Llama 3.1 Nemotron Nano 4B V1.1 GGUF
その他
NVIDIA Llama-3.1-Nemotron-Nano-4B-v1.1モデルを基にした量子化バージョンで、llama.cppツールを使用して様々な量子化処理が施されており、リソースが限られた環境での実行に適しています。
大規模言語モデル 英語
N
bartowski
2,553
8
Qwen2.5 Omni 7B GPTQ Int4
その他
Qwen2.5-Omniはエンドツーエンドのマルチモーダルモデルで、テキスト、画像、音声、ビデオなど様々なモダリティを認識し、ストリーミング方式でテキストと自然音声応答を生成できます。
マルチモーダル融合
Transformers 英語

Q
Qwen
389
8
Gemma 3 12B FornaxV.2 QAT CoT Q4 0 GGUF
これは8GiBのコンシューマー向けGPUで動作することを目的とした実験的な小型思考モデルで、汎用推論能力を備えています。教師あり微調整(SFT)と高品質な推論軌跡トレーニングにより、モデルは推論能力を様々なタスクに汎化できます。
大規模言語モデル
G
ConicCat
98
1
Huihui Ai Qwen3 14B Abliterated GGUF
Apache-2.0
Qwen3-14B-abliteratedはQwen3-14Bモデルに基づく量子化バージョンで、llama.cppを使用して最適化され、さまざまな性能要件に対応するための複数の量子化オプションを提供します。
大規模言語モデル
H
bartowski
6,097
5
Qwen Qwen3 32B GGUF
Apache-2.0
Qwen/Qwen3-32Bを基にした量子化バージョンで、llama.cppを使用して量子化されており、様々な量子化タイプをサポートし、異なるハードウェア要件に対応します。
大規模言語モデル
Q
bartowski
49.13k
35
Qwen Qwen3 1.7B GGUF
Qwen/Qwen3-1.7Bを基にした量子化バージョンで、llama.cppを使用して量子化されており、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル
Q
bartowski
7,150
10
Qwen Qwen3 4B GGUF
Qwenチームが提供するQwen3-4BのLlamacpp imatrix量子化バージョンで、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル
Q
bartowski
10.58k
9
Qwen Qwen3 30B A3B GGUF
Apache-2.0
Qwen/Qwen3-30B-A3Bを基にした量子化バージョンで、llama.cppを使用して複数の精度で量子化されており、テキスト生成タスクに適しています。
大規模言語モデル
Q
bartowski
79.34k
49
Llama 3.2 1B Instruct GGUF
Llama-3.2-1B-Instruct は Llama アーキテクチャに基づく 1B パラメータの命令微調整モデルで、さまざまなハードウェアニーズに対応するために複数の量子化フォーマットを提供します。
大規模言語モデル 複数言語対応
L
Mungert
708
3
Tesslate Tessa Rust T1 7B GGUF
Apache-2.0
Tessa-Rust-T1-7Bの量子化バージョンで、llama.cppツールを使用して量子化処理を行い、さまざまなハードウェア条件で高効率に動作します。
大規模言語モデル
Transformers 英語

T
bartowski
542
2
Vicoder Html 32B Preview GGUF
ViCoder-HTML-32B-previewは、HTML、Tailwind CSS、JavaScriptコードを含む完全なウェブサイトを生成するために設計された強力なAIモデルです。
大規模言語モデル その他
V
vicharai
130
4
Abomimegadarkgasinalgottenevereamession
これはDARE TIES手法でマージされた12Bパラメータの言語モデルで、複数の事前学習モデルを融合し、強力なテキスト生成能力を提供します。
大規模言語モデル
Transformers

A
ReadyArt
26
1
Qwen2.5 72B Instruct GGUF
その他
Qwen2.5-72B-InstructのGGUF量子化バージョンで、複数の精度フォーマットをサポートし、様々なハードウェア環境での効率的な推論に適しています。
大規模言語モデル 英語
Q
Mungert
1,439
4
Llama 2 7b Chat Hf GGUF
Llama 2はMetaが開発した70億パラメータ規模の大規模言語モデルで、さまざまなハードウェア要件に対応するために複数の量子化バージョンを提供しています。
大規模言語モデル 英語
L
Mungert
1,348
3
Mxbai Rerank Large V2 GGUF
Apache-2.0
mxbai-rerank-large-v2は多言語テキストリランキングモデルで、複数の言語と量子化フォーマットをサポートし、様々なハードウェア環境に適しています。
テキスト埋め込み 複数言語対応
M
Mungert
2,209
2
Phi 4 GGUF
MIT
phi-4はマイクロソフトリサーチが開発したオープンソース言語モデルで、高品質なデータと推論能力に重点を置き、メモリ/計算リソースが限られた環境に適しています。
大規模言語モデル 複数言語対応
P
Mungert
1,508
3
Meta Llama 3 8B GGUF
Meta-Llama-3-8BはGGUFフォーマットに基づく80億パラメータの大規模言語モデルで、様々な量子化バージョンをサポートし、異なるハードウェア環境に適応します。
大規模言語モデル 英語
M
Mungert
1,303
2
RWKV7 Goose World3 2.9B HF GGUF
Apache-2.0
flash-linear attention形式のRWKV-7モデルで、多言語テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
R
Mungert
14.51k
16
Rwkv7 2.9B World GGUF
Apache-2.0
RWKV-7アーキテクチャの29億パラメータ大規模言語モデル、多言語テキスト生成タスクをサポート
大規模言語モデル 複数言語対応
R
Mungert
748
3
Wan 1.3b Gguf
Apache-2.0
これはWan-AI/Wan2.1-T2V-1.3Bを基にしたgguf量子化バージョンで、テキストから動画生成タスク向けに設計されており、comfyui-ggufとggufノードと互換性があります。
テキスト生成ビデオ 英語
W
calcuis
3,058
12
Thedrummer Cydonia 24B V2.1 GGUF
その他
Cydonia-24B-v2.1は24Bパラメータの大規模言語モデルで、llama.cppのimatrix量子化処理を施し、さまざまなハードウェア要件に対応する複数の量子化バージョンを提供します。
大規模言語モデル
T
bartowski
4,417
7
Rombo Org Rombo LLM V3.1 QWQ 32b GGUF
Apache-2.0
Rombo-LLM-V3.1-QWQ-32bは32Bパラメータ規模の大規模言語モデルで、llama.cppのimatrix量子化処理を経ており、さまざまなハードウェアニーズに対応する複数の量子化バージョンを提供します。
大規模言語モデル
R
bartowski
2,132
5
Mochi Gguf
Apache-2.0
mochiのGGUF量子化バージョンはテキストから動画を生成するモデルで、GGUFエンコーダーとGGUF変分自己符号化器を含み、迅速な動画コンテンツ生成に適しています。
テキスト生成ビデオ 英語
M
calcuis
284
2
Thedrummer Cydonia 24B V2 GGUF
その他
これは24Bパラメータの大規模言語モデルで、llama.cppのimatrix量子化処理を施し、さまざまなハードウェア要件に対応する複数の量子化バージョンを提供します。
大規模言語モデル
T
bartowski
5,797
16
Zed Industries Zeta GGUF
Apache-2.0
これはzed - industriesのzetaモデルをLlamacpp imatrixで量子化したバージョンで、異なるハードウェア条件下でモデルを高効率に実行する問題を解決し、ユーザーに複数の量子化タイプを提供します。
大規模言語モデル
Z
bartowski
561
12
Nera Noctis 12B GGUF
その他
Nera_Noctis-12BのLlamacpp imatrix量子化バージョンで、Nitral-AI/Nera_Noctis-12Bモデルをベースにし、英語テキスト生成タスクをサポートします。
大規模言語モデル 英語
N
bartowski
64
6
Mochi
Apache-2.0
mochiはgguf量子化バージョンに基づくテキスト生成動画モデルで、テキスト記述から動画コンテンツを生成できます。
テキスト生成ビデオ 英語
M
calcuis
140
8
Aura 4B GGUF
Apache-2.0
Aura-4BはAuraIndustries/Aura-4Bをベースにした量子化バージョンで、llama.cppを使用してimatrix量子化を行い、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル 英語
A
bartowski
290
8
Starcoder2 3b GGUF
Openrail
StarCoder2-3Bは30億のパラメータを持つコード生成モデルで、17種類のプログラミング言語のデータを基に訓練されており、コード断片を生成することができますが、必ずしも完全に正確であるとは限りません。
大規模言語モデル
Transformers

S
nold
300
1
Mixtral 8x7B V0.1
Apache-2.0
Mixtral-8x7Bは事前学習済みの生成的スパース混合エキスパートモデルで、ほとんどのベンチマークテストでLlama 2 70Bを上回る性能を示しています。
大規模言語モデル
Transformers 複数言語対応

M
mistralai
42.78k
1,709
Starcoder2 3b
Openrail
StarCoder2-3Bは30億パラメータを持つコード生成モデルで、17のプログラミング言語でトレーニングされ、16,384トークンのコンテキストウィンドウをサポートします。
大規模言語モデル
Transformers その他

S
bigcode
199.62k
178
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98