M

Meta Llama 3 8B Instruct GGUF

由Mungert開發
基於Llama-3-8B-Instruct的IQ-DynamicGate超低位量化(1-2比特)模型,採用精度自適應量化技術,在保持極致內存效率的同時提升推理精度。
下載量 1,343
發布時間 : 3/17/2025

模型概述

該模型是Meta Llama 3系列中的8B參數指令調優版本,經過特殊量化處理,適用於內存受限環境下的高效推理。

模型特點

IQ-DynamicGate量化技術
採用分層策略的精度自適應量化,在1-2比特超低位量化下仍保持較高精度
關鍵組件保護
嵌入/輸出層使用Q5_K量化,減少38%誤差傳播
極致內存效率
IQ1_S量化版本僅需2.1GB內存,適合邊緣設備部署

模型能力

指令跟隨
文本生成
編程輔助
問答系統

使用案例

邊緣計算
低功耗設備部署
在內存受限的IoT設備上運行大型語言模型
IQ1_S量化版僅需2.1GB內存
研究開發
超低位量化研究
作為1-2比特量化技術的研究基準
IQ1_M困惑度降低43.9%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase