# 超低ビット量子化

Holo1 3B GGUF
その他
Holo1-3BはTransformerアーキテクチャに基づくマルチモーダルモデルで、ビジュアル文書検索タスクに特化しており、WebVoyagerベンチマークテストで優れた性能を発揮し、精度とコストのバランスが良い。
画像生成テキスト Transformers 英語
H
Mungert
583
0
Holo1 7B GGUF
Apache-2.0
Holo1-7B GGUFモデルはSurfer - Hシステムの一部で、視覚文書検索などのマルチモーダルタスクに適しており、特にウェブページのインタラクションとネットワーク監視に長けており、低コストで高い精度を実現できます。
画像生成テキスト Transformers 英語
H
Mungert
663
0
Devstral Small 2505 GGUF
Apache-2.0
ソフトウェアエンジニアリングプロジェクト向けに特別に開発された高効率な言語モデルで、軽量設計で128kの大きなコンテキストウィンドウをサポートし、複雑なコーディングタスクに適しています。
大規模言語モデル 複数言語対応
D
Mungert
1,409
1
Qwq 32B ArliAI RpR V4 GGUF
Apache-2.0
Qwen/QwQ-32Bをベースとしたテキスト生成モデルで、ロールプレイやクリエイティブライティングタスクに特化し、超低ビット量子化と長い会話処理をサポートします。
大規模言語モデル Transformers 英語
Q
Mungert
523
2
Kanana 1.5 8b Instruct 2505 GGUF
Apache-2.0
Kanana 1.5はKananaモデルシリーズの新バージョンで、コーディング、数学、関数呼び出し能力が大幅に向上し、最大32Kトークンの入力を処理可能で、YaRN使用時には128Kトークンまで処理可能です。
大規模言語モデル Transformers 複数言語対応
K
Mungert
606
2
Medgemma 4b It GGUF
その他
MedGemma-4B-ITはGemma 3をベースにした医学分野のマルチモーダルモデルで、医学テキストと画像の理解をサポートし、医療AIアプリケーション開発に適しています。
画像生成テキスト Transformers
M
Mungert
637
2
Medgemma 27b Text It GGUF
その他
MedGemma-27B-Text-ITはGemma 3アーキテクチャに基づく医療専用の大規模言語モデルで、医療テキスト処理に最適化されており、さまざまな量子化バージョンを提供して異なるハードウェア環境に対応します。
大規模言語モデル Transformers
M
Mungert
1,464
3
Qwenlong L1 32B GGUF
Apache-2.0
QwenLong-L1-32Bは、長コンテキスト推論用に特別に設計された大規模言語モデルで、強化学習による訓練を通じて、複数の長コンテキスト質問応答ベンチマークテストで優れた性能を発揮し、複雑な推論タスクを効果的に処理できます。
大規模言語モデル Transformers
Q
Mungert
927
7
Dans PersonalityEngine V1.3.0 24b GGUF
Apache-2.0
Dans-PersonalityEngine-V1.3.0-24bは、50以上の専門データセットで微調整された多機能モデルシリーズで、多言語と専門分野のタスクをサポートします。
大規模言語モデル Transformers
D
Mungert
678
2
Qwen3 30B A6B 16 Extreme GGUF
Qwen/Qwen3-30B-A3B-Baseに基づいて生成された超低ビット量子化モデルで、32kのコンテキスト長をサポートし、さまざまなハードウェア環境に適しています。
大規模言語モデル Transformers
Q
Mungert
1,321
1
Llama 3.1 Nemotron Nano 4B V1.1 GGUF
その他
Llama-3.1-Nemotron-Nano-4B-v1.1は、Llama 3.1をベースに最適化された大規模言語モデルで、精度と効率のバランスが良好で、AIエージェントやチャットボットなどの様々なシーンに適しています。
大規模言語モデル Transformers 英語
L
Mungert
2,177
1
Opencodereasoning Nemotron 32B IOI GGUF
Apache-2.0
Qwen2.5 - 32B - Instructに基づく大規模言語モデルで、コード生成推論用に事後学習され、32Kのコンテキスト長をサポートし、商用および非商用用途に適しています。
大規模言語モデル Transformers
O
Mungert
1,317
2
UI TARS 1.5 7B GGUF
Apache-2.0
UI-TARS-1.5-7Bは先進技術に基づくマルチモーダルモデルで、画像とテキストの変換などのタスクで優れた性能を発揮します。革新的な量子化方法を採用し、極低ビットレートでも高い精度を維持することができます。
テキスト生成画像 Transformers
U
Mungert
2,526
3
Josiefied Qwen3 8B Abliterated V1 GGUF
Qwen3-8Bをベースにした量子化バージョンで、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ効率と推論速度を最適化
大規模言語モデル
J
Mungert
559
1
Phi 4 Mini Reasoning GGUF
MIT
Phi-4-mini-reasoningは合成データに基づいて構築された軽量のオープンモデルで、高品質で推論に富んだデータに焦点を当て、より高度な数学的推論能力に対してさらに微調整されています。
大規模言語モデル Transformers
P
Mungert
3,592
3
Foundation Sec 8B GGUF
Apache-2.0
Foundation - Sec - 8Bは、ネットワークセキュリティアプリケーション向けに設計された言語モデルで、Llama - 3.1アーキテクチャに基づき、大量のネットワークセキュリティ関連のテキストデータで事前学習されており、ネットワークセキュリティ分野のさまざまな概念、用語、実践を理解して処理することができます。
大規模言語モデル Transformers 英語
F
Mungert
7,603
4
Qwen3 14B GGUF
Apache-2.0
Qwen3-14BはQwen/Qwen3-14B-Baseから生成されたGGUF形式モデルで、テキスト生成タスクをサポートし、IQ-DynamicGate超低ビット量子化技術によりメモリ効率を最適化しています。
大規模言語モデル
Q
Mungert
1,597
6
GLM Z1 9B 0414 GGUF
MIT
GLM-Z1-9B-0414 は中英バイリンガルのテキスト生成モデルで、GGUFフォーマットを採用し、BF16から超低ビット量子化(1-2ビット)までの複数の量子化レベルに対応しています。
大規模言語モデル 複数言語対応
G
Mungert
1,598
3
Qwen2.5 3B Instruct GGUF
その他
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)モデルで、メモリ制約のあるデバイスや効率的な推論シナリオに適しています
大規模言語モデル 英語
Q
Mungert
704
4
Qwen2.5 7B Instruct GGUF
Apache-2.0
Qwen2.5-7B-InstructはQwen2.5-7Bを基にした命令微調整モデルで、テキスト生成タスクをサポートし、特にチャットシナリオでのパフォーマンスを最適化しています。
大規模言語モデル 英語
Q
Mungert
706
4
Llama 3.2 3B Instruct GGUF
Llama-3.2-3B-Instruct GGUFはMetaがリリースした3Bパラメータ規模の大規模言語モデルで、IQ-DynamicGate技術を用いた超低ビット量子化(1-2ビット)を採用し、メモリ効率を維持しながら推論性能を最適化しています。
大規模言語モデル 複数言語対応
L
Mungert
656
3
Olympiccoder 7B GGUF
Apache-2.0
OlympicCoder-7BはQwen2.5-Coder-7B-Instructを最適化したコード生成モデルで、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ制約環境向けに設計されています。
大規模言語モデル 英語
O
Mungert
849
3
Phi 2 GGUF
MIT
phi-2 は IQ-DynamicGate 超低ビット量子化(1-2 ビット)を採用したテキスト生成モデルで、自然言語処理とコード生成タスクに適しています。
大規模言語モデル 複数言語対応
P
Mungert
472
2
GLM Z1 32B 0414 GGUF
MIT
GLM-Z1-32B-0414は32Bパラメータ規模の多言語テキスト生成モデルで、中国語と英語をサポートし、MITライセンスで公開されています。
大規模言語モデル 複数言語対応
G
Mungert
994
3
GLM 4 32B 0414 GGUF
MIT
GLM-4-32B-0414 GGUFモデルは、一連の強力なテキスト生成モデルで、さまざまな量子化形式を持ち、異なるハードウェアとメモリ条件に適しています。
大規模言語モデル Transformers 複数言語対応
G
Mungert
817
4
Granite 3.3 8b Instruct GGUF
Apache-2.0
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)言語モデル、メモリ制約環境に適応
大規模言語モデル
G
Mungert
759
2
Llama 3.1 Nemotron 70B Instruct HF GGUF
Meta Llama-3.1-70B-Instructをファインチューニングしたモデルで、NVIDIA HelpSteer2データセットで最適化されており、テキスト生成タスクをサポートします。
大規模言語モデル 英語
L
Mungert
1,434
3
Qwq 32B GGUF
Apache-2.0
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)大規模言語モデル、多言語テキスト生成タスクをサポート
大規模言語モデル 英語
Q
Mungert
5,770
17
Orpheus 3b 0.1 Ft GGUF
Apache-2.0
Llama-3-8Bアーキテクチャを基に最適化された超低ビット量子化モデル。IQ-DynamicGate技術により1-2ビット精度の適応的量子化を実現し、メモリ制約環境に適しています。
大規模言語モデル 英語
O
Mungert
1,427
1
Olmo 2 0325 32B Instruct GGUF
Apache-2.0
OLMo-2-0325-32B-DPOをベースにした命令微調整モデルで、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ制約環境向けに最適化されています。
大規模言語モデル 英語
O
Mungert
15.57k
2
Llama 3 3 Nemotron Super 49B V1 GGUF
その他
IQ-DynamicGate超低ビット量子化技術を採用した49Bパラメータ大規模言語モデル、1-2ビット精度適応量子化をサポート、メモリ効率と推論速度を最適化
大規模言語モデル 英語
L
Mungert
434
4
Qwen2.5 VL 7B Instruct GGUF
Apache-2.0
Qwen2.5-VL-7B-Instruct はマルチモーダル視覚言語モデルで、画像理解とテキスト生成タスクをサポートします。
画像生成テキスト 英語
Q
Mungert
17.10k
10
Gemma 3 27b It GGUF
Gemma 3 27BパラメータのGGUF量子化バージョン、画像テキストインタラクションタスクをサポート
テキスト生成画像
G
Mungert
4,034
6
EXAONE Deep 32B GGUF
その他
EXAONE-Deep-32Bは32Bパラメータの大規模言語モデルで、英語と韓語をサポートし、テキスト生成タスク向けに設計されています。
大規模言語モデル 複数言語対応
E
Mungert
2,249
3
Llama 3.1 Nemotron Nano 8B V1 GGUF
その他
Llama-3アーキテクチャに基づく8Bパラメータモデルで、IQ-DynamicGate超低ビット量子化技術によりメモリ使用を最適化
大規模言語モデル 英語
L
Mungert
2,088
4
EXAONE Deep 7.8B GGUF
その他
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)の7.8Bパラメータモデルで、英語と韓語のテキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
E
Mungert
1,791
5
Granite 3.2 8b Instruct GGUF
Apache-2.0
IBM Graniteシリーズ8Bパラメータ命令微調整言語モデル、IQ-DynamicGate超低ビット量子化技術を採用し、効率的な推論シーンに適応
大規模言語モデル
G
Mungert
1,048
2
Mistral Small 3.1 24B Instruct 2503 GGUF
Apache-2.0
これはMistral-Small-3.1-24B-Base-2503を基にした命令微調整モデルで、GGUFフォーマットとIQ-DynamicGate超低ビット量子化技術を採用しています。
大規模言語モデル 複数言語対応
M
Mungert
10.01k
7
Qwen2.5 7B Instruct 1M GGUF
Apache-2.0
Qwen2.5-7B-Instruct-1MはQwen2.5-7Bを基にした命令微調整バージョンで、IQ-DynamicGate超低ビット量子化技術(1-2ビット)を採用し、メモリ制約環境下での効率的な推論に適しています。
大規模言語モデル 英語
Q
Mungert
1,342
4
Qwen2.5 14B Instruct 1M GGUF
Apache-2.0
Qwen2.5-14B-Instruct-1M は Qwen2.5-14B を基にした命令微調整モデルで、テキスト生成タスクをサポートし、チャットシナリオに適しています。
大規模言語モデル 英語
Q
Mungert
1,600
3
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase