# 動的精度割り当て

Dans PersonalityEngine V1.3.0 24b GGUF
Apache-2.0
Dans-PersonalityEngine-V1.3.0-24bは、50以上の専門データセットで微調整された多機能モデルシリーズで、多言語と専門分野のタスクをサポートします。
大規模言語モデル Transformers
D
Mungert
678
2
Josiefied Qwen3 8B Abliterated V1 GGUF
Qwen3-8Bをベースにした量子化バージョンで、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ効率と推論速度を最適化
大規模言語モデル
J
Mungert
559
1
Qwen3 30B A3B GGUF
Apache-2.0
Qwen3-30B-A3BはQwen3-30B-A3B-Baseを基にした大規模言語モデルで、テキスト生成タスクをサポートし、超低位量子化技術によりメモリ効率を最適化しています。
大規模言語モデル
Q
Mungert
2,135
1
Qwen3 14B GGUF
Apache-2.0
Qwen3-14BはQwen/Qwen3-14B-Baseから生成されたGGUF形式モデルで、テキスト生成タスクをサポートし、IQ-DynamicGate超低ビット量子化技術によりメモリ効率を最適化しています。
大規模言語モデル
Q
Mungert
1,597
6
GLM Z1 9B 0414 GGUF
MIT
GLM-Z1-9B-0414 は中英バイリンガルのテキスト生成モデルで、GGUFフォーマットを採用し、BF16から超低ビット量子化(1-2ビット)までの複数の量子化レベルに対応しています。
大規模言語モデル 複数言語対応
G
Mungert
1,598
3
Olympiccoder 7B GGUF
Apache-2.0
OlympicCoder-7BはQwen2.5-Coder-7B-Instructを最適化したコード生成モデルで、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ制約環境向けに設計されています。
大規模言語モデル 英語
O
Mungert
849
3
GLM 4 32B 0414 GGUF
MIT
GLM-4-32B-0414 GGUFモデルは、一連の強力なテキスト生成モデルで、さまざまな量子化形式を持ち、異なるハードウェアとメモリ条件に適しています。
大規模言語モデル Transformers 複数言語対応
G
Mungert
817
4
Granite 3.3 8b Instruct GGUF
Apache-2.0
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)言語モデル、メモリ制約環境に適応
大規模言語モデル
G
Mungert
759
2
Qwq 32B GGUF
Apache-2.0
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)大規模言語モデル、多言語テキスト生成タスクをサポート
大規模言語モデル 英語
Q
Mungert
5,770
17
Orpheus 3b 0.1 Ft GGUF
Apache-2.0
Llama-3-8Bアーキテクチャを基に最適化された超低ビット量子化モデル。IQ-DynamicGate技術により1-2ビット精度の適応的量子化を実現し、メモリ制約環境に適しています。
大規模言語モデル 英語
O
Mungert
1,427
1
Llama 3.1 70B Instruct GGUF
Llama-3.1-70Bを基にした超低位量子化(1-2ビット)モデルで、IQ-DynamicGate技術を用いて精度適応型量子化を実現し、メモリ効率を維持しながら精度を向上させています。
大規模言語モデル 複数言語対応
L
Mungert
19.52k
3
Olympiccoder 32B GGUF
Apache-2.0
OlympicCoder-32BはQwen2.5-Coder-32B-Instructをベースとしたコード生成モデルで、IQ-DynamicGate超低位量子化技術を採用し、メモリ制約環境下での効率的な推論に適しています。
大規模言語モデル 英語
O
Mungert
361
3
Qwen2.5 VL 7B Instruct GGUF
Apache-2.0
Qwen2.5-VL-7B-Instruct はマルチモーダル視覚言語モデルで、画像理解とテキスト生成タスクをサポートします。
画像生成テキスト 英語
Q
Mungert
17.10k
10
Gemma 3 27b It GGUF
Gemma 3 27BパラメータのGGUF量子化バージョン、画像テキストインタラクションタスクをサポート
テキスト生成画像
G
Mungert
4,034
6
EXAONE Deep 32B GGUF
その他
EXAONE-Deep-32Bは32Bパラメータの大規模言語モデルで、英語と韓語をサポートし、テキスト生成タスク向けに設計されています。
大規模言語モデル 複数言語対応
E
Mungert
2,249
3
Llama 3.1 Nemotron Nano 8B V1 GGUF
その他
Llama-3アーキテクチャに基づく8Bパラメータモデルで、IQ-DynamicGate超低ビット量子化技術によりメモリ使用を最適化
大規模言語モデル 英語
L
Mungert
2,088
4
EXAONE Deep 7.8B GGUF
その他
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)の7.8Bパラメータモデルで、英語と韓語のテキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
E
Mungert
1,791
5
Llama 3.1 8B Instruct GGUF
Llama-3.1-8B-Instruct は Llama-3-8B の命令調整バージョンで、IQ-DynamicGate 技術を用いた超低ビット量子化(1-2 ビット)を採用し、メモリ効率を維持しながら精度を向上させています。
大規模言語モデル 複数言語対応
L
Mungert
1,073
3
Mistral 7B Instruct V0.2 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.2はMistral-7Bアーキテクチャに基づく命令微調整モデルで、テキスト生成タスクをサポートし、IQ-DynamicGate超低ビット量子化技術によりメモリ効率を最適化しています。
大規模言語モデル
M
Mungert
742
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase