G

Granite 3.3 8b Instruct GGUF

Mungertによって開発
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)言語モデル、メモリ制約環境に適応
ダウンロード数 759
リリース時間 : 4/17/2025

モデル概要

このモデルはgranite-3.3-8b-baseの命令チューニングバージョンで、革新的なIQ-DynamicGate量子化技術を採用し、極限のメモリ効率を維持しながらモデル精度を最適化しています。

モデル特徴

IQ-DynamicGate量子化技術
精度適応型量子化を採用し、異なる層に異なるビット幅(1-4ビット)を使用、メモリ効率を維持しながらモデル精度を最適化
超低ビット量子化サポート
1-2ビットの極限量子化をサポート、メモリ制約デバイスに適応
階層型量子化戦略
キーコンポーネント(埋め込み層など)に高精度保護を適用、誤差伝播を低減
マルチフォーマットサポート
BF16、F16及び各種量子化フォーマット(Q4_K、Q6_K、Q8_0など)を提供し、異なるハードウェアに対応

モデル能力

テキスト生成
命令追従
低メモリ推論
CPU最適化推論

使用事例

エッジコンピューティング
モバイルデバイスAIアシスタント
メモリ制限のあるモバイルデバイスにインテリジェントアシスタントを展開
1-2ビット量子化バージョンは可用性を維持しながらメモリ使用量を大幅に削減
研究分野
超低ビット量子化研究
極端な量子化条件下でのモデル挙動を研究
比較研究用に1-3ビット量子化バリアントを複数提供