G

Granite 3.3 8b Instruct GGUF

由Mungert開發
採用IQ-DynamicGate技術的超低位量化(1-2比特)語言模型,適用於內存受限環境
下載量 759
發布時間 : 4/17/2025

模型概述

該模型是基於granite-3.3-8b-base的指令調優版本,採用創新的IQ-DynamicGate量化技術,在保持極致內存效率的同時優化模型精度。

模型特點

IQ-DynamicGate量化技術
採用精度自適應量化,對不同層採用不同位寬(1-4比特),在保持內存效率的同時優化模型精度
超低位量化支持
支持1-2比特的極致量化,適合內存受限設備
分層量化策略
對關鍵組件(如嵌入層)採用更高精度保護,減少誤差傳播
多格式支持
提供BF16、F16及多種量化格式(Q4_K、Q6_K、Q8_0等)以適應不同硬件

模型能力

文本生成
指令跟隨
低內存推理
CPU優化推理

使用案例

邊緣計算
移動設備AI助手
在內存有限的移動設備上部署智能助手
1-2比特量化版本可在保持可用性的同時大幅減少內存佔用
研究領域
超低位量化研究
研究極端量化條件下的模型行為
提供多種1-3比特量化變體供研究比較
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase