# CPU効率的推論

Josiefied Qwen3 8B Abliterated V1 GGUF
Qwen3-8Bをベースにした量子化バージョンで、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ効率と推論速度を最適化
大規模言語モデル
J
Mungert
559
1
GLM Z1 9B 0414 GGUF
MIT
GLM-Z1-9B-0414 は中英バイリンガルのテキスト生成モデルで、GGUFフォーマットを採用し、BF16から超低ビット量子化(1-2ビット)までの複数の量子化レベルに対応しています。
大規模言語モデル 複数言語対応
G
Mungert
1,598
3
Olympiccoder 7B GGUF
Apache-2.0
OlympicCoder-7BはQwen2.5-Coder-7B-Instructを最適化したコード生成モデルで、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ制約環境向けに設計されています。
大規模言語モデル 英語
O
Mungert
849
3
Deepcoder 14B Preview GGUF
MIT
IQ-DynamicGate技術を採用した超低位量子化(1-2ビット)モデルで、メモリ制約のあるデバイスやエッジコンピューティングシナリオに適しています
大規模言語モデル 英語
D
Mungert
1,764
6
Orpheus 3b 0.1 Ft GGUF
Apache-2.0
Llama-3-8Bアーキテクチャを基に最適化された超低ビット量子化モデル。IQ-DynamicGate技術により1-2ビット精度の適応的量子化を実現し、メモリ制約環境に適しています。
大規模言語モデル 英語
O
Mungert
1,427
1
Llama 3.1 Nemotron Nano 8B V1 GGUF
その他
Llama-3アーキテクチャに基づく8Bパラメータモデルで、IQ-DynamicGate超低ビット量子化技術によりメモリ使用を最適化
大規模言語モデル 英語
L
Mungert
2,088
4
Mistral Small 3.1 24B Instruct 2503 GGUF
Apache-2.0
これはMistral-Small-3.1-24B-Base-2503を基にした命令微調整モデルで、GGUFフォーマットとIQ-DynamicGate超低ビット量子化技術を採用しています。
大規模言語モデル 複数言語対応
M
Mungert
10.01k
7
Llama 3.1 8B Instruct GGUF
Llama-3.1-8B-Instruct は Llama-3-8B の命令調整バージョンで、IQ-DynamicGate 技術を用いた超低ビット量子化(1-2 ビット)を採用し、メモリ効率を維持しながら精度を向上させています。
大規模言語モデル 複数言語対応
L
Mungert
1,073
3
Mistral 7B Instruct V0.2 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.2はMistral-7Bアーキテクチャに基づく命令微調整モデルで、テキスト生成タスクをサポートし、IQ-DynamicGate超低ビット量子化技術によりメモリ効率を最適化しています。
大規模言語モデル
M
Mungert
742
2
Tiny Image Captioning
Apache-2.0
bert-tinyとvit-smallに基づく軽量な画像説明生成モデルで、わずか100MBの重さで、CPU上で非常に高速に動作します。
画像生成テキスト Transformers 英語
T
cnmoro
4,298
2
Mini Image Captioning
Apache-2.0
bert-miniとvit-smallに基づく軽量画像キャプション生成モデルで、わずか130MBの重さで、CPU上で非常に高速に動作します。
画像生成テキスト Transformers 英語
M
cnmoro
292
3
Bge Base En V1.5 Gguf
MIT
このプロジェクトは、GGUF形式で保存されたBGE埋め込みモデルを提供し、llama.cppとの併用に適しており、transformersよりも優れたパフォーマンスを提供します。
テキスト埋め込み
B
CompendiumLabs
1,108
5
Relullama 7B
Llama 2 7Bを微調整したReLU活性化スパース大規模言語モデル、動的パラメータ選択により計算効率を向上
大規模言語モデル Transformers 英語
R
SparseLLM
5,323
11
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase