M

Meta Llama 3 8B Instruct GGUF

Mungertによって開発
Llama-3-8B-InstructベースのIQ-DynamicGate超低ビット量子化(1-2ビット)モデルで、精度適応量子化技術を採用し、極限のメモリ効率を維持しながら推論精度を向上させます。
ダウンロード数 1,343
リリース時間 : 3/17/2025

モデル概要

このモデルはMeta Llama 3シリーズの8Bパラメータ命令チューニング版で、特別な量子化処理が施されており、メモリ制約環境下での効率的な推論に適しています。

モデル特徴

IQ-DynamicGate量子化技術
階層戦略の精度適応量子化を採用し、1-2ビット超低ビット量子化下でも高い精度を維持
重要コンポーネント保護
埋め込み/出力層にQ5_K量子化を使用し、38%の誤差伝播を低減
極限のメモリ効率
IQ1_S量子化版はわずか2.1GBのメモリで動作し、エッジデバイス展開に最適

モデル能力

命令追従
テキスト生成
プログラミング支援
質問応答システム

使用事例

エッジコンピューティング
低消費電力デバイス展開
メモリ制約のあるIoTデバイスで大規模言語モデルを実行
IQ1_S量子化版はわずか2.1GBのメモリで動作
研究開発
超低ビット量子化研究
1-2ビット量子化技術の研究ベンチマークとして
IQ1_Mは困惑度43.9%低減
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase