# 精度適応

Qwen2.5 3B Instruct GGUF
その他
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)モデルで、メモリ制約のあるデバイスや効率的な推論シナリオに適しています
大規模言語モデル 英語
Q
Mungert
704
4
Qwen2.5 7B Instruct GGUF
Apache-2.0
Qwen2.5-7B-InstructはQwen2.5-7Bを基にした命令微調整モデルで、テキスト生成タスクをサポートし、特にチャットシナリオでのパフォーマンスを最適化しています。
大規模言語モデル 英語
Q
Mungert
706
4
Llama 3.2 3B Instruct GGUF
Llama-3.2-3B-Instruct GGUFはMetaがリリースした3Bパラメータ規模の大規模言語モデルで、IQ-DynamicGate技術を用いた超低ビット量子化(1-2ビット)を採用し、メモリ効率を維持しながら推論性能を最適化しています。
大規模言語モデル 複数言語対応
L
Mungert
656
3
Phi 2 GGUF
MIT
phi-2 は IQ-DynamicGate 超低ビット量子化(1-2 ビット)を採用したテキスト生成モデルで、自然言語処理とコード生成タスクに適しています。
大規模言語モデル 複数言語対応
P
Mungert
472
2
GLM Z1 32B 0414 GGUF
MIT
GLM-Z1-32B-0414は32Bパラメータ規模の多言語テキスト生成モデルで、中国語と英語をサポートし、MITライセンスで公開されています。
大規模言語モデル 複数言語対応
G
Mungert
994
3
Deepcoder 14B Preview GGUF
MIT
IQ-DynamicGate技術を採用した超低位量子化(1-2ビット)モデルで、メモリ制約のあるデバイスやエッジコンピューティングシナリオに適しています
大規模言語モデル 英語
D
Mungert
1,764
6
Llama 3.1 Nemotron 70B Instruct HF GGUF
Meta Llama-3.1-70B-Instructをファインチューニングしたモデルで、NVIDIA HelpSteer2データセットで最適化されており、テキスト生成タスクをサポートします。
大規模言語モデル 英語
L
Mungert
1,434
3
Olmo 2 0325 32B Instruct GGUF
Apache-2.0
OLMo-2-0325-32B-DPOをベースにした命令微調整モデルで、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ制約環境向けに最適化されています。
大規模言語モデル 英語
O
Mungert
15.57k
2
Llama 3 3 Nemotron Super 49B V1 GGUF
その他
IQ-DynamicGate超低ビット量子化技術を採用した49Bパラメータ大規模言語モデル、1-2ビット精度適応量子化をサポート、メモリ効率と推論速度を最適化
大規模言語モデル 英語
L
Mungert
434
4
Granite 3.2 8b Instruct GGUF
Apache-2.0
IBM Graniteシリーズ8Bパラメータ命令微調整言語モデル、IQ-DynamicGate超低ビット量子化技術を採用し、効率的な推論シーンに適応
大規模言語モデル
G
Mungert
1,048
2
Mistral Small 3.1 24B Instruct 2503 GGUF
Apache-2.0
これはMistral-Small-3.1-24B-Base-2503を基にした命令微調整モデルで、GGUFフォーマットとIQ-DynamicGate超低ビット量子化技術を採用しています。
大規模言語モデル 複数言語対応
M
Mungert
10.01k
7
Qwen2.5 7B Instruct 1M GGUF
Apache-2.0
Qwen2.5-7B-Instruct-1MはQwen2.5-7Bを基にした命令微調整バージョンで、IQ-DynamicGate超低ビット量子化技術(1-2ビット)を採用し、メモリ制約環境下での効率的な推論に適しています。
大規模言語モデル 英語
Q
Mungert
1,342
4
Qwen2.5 14B Instruct 1M GGUF
Apache-2.0
Qwen2.5-14B-Instruct-1M は Qwen2.5-14B を基にした命令微調整モデルで、テキスト生成タスクをサポートし、チャットシナリオに適しています。
大規模言語モデル 英語
Q
Mungert
1,600
3
Meta Llama 3 8B Instruct GGUF
Llama-3-8B-InstructベースのIQ-DynamicGate超低ビット量子化(1-2ビット)モデルで、精度適応量子化技術を採用し、極限のメモリ効率を維持しながら推論精度を向上させます。
大規模言語モデル 英語
M
Mungert
1,343
3
Mistral 7B Instruct V0.1 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.1はMistral-7B-v0.1を基にしたファインチューニングモデルで、テキスト生成タスクをサポートし、IQ-DynamicGate超低ビット量子化技術を採用しており、メモリ制約のあるデプロイ環境に適しています。
大規模言語モデル
M
Mungert
632
3
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase