L

Llama 3.1 8B Instruct GGUF

Mungertによって開発
Llama-3.1-8B-Instruct は Llama-3-8B の命令調整バージョンで、IQ-DynamicGate 技術を用いた超低ビット量子化(1-2 ビット)を採用し、メモリ効率を維持しながら精度を向上させています。
ダウンロード数 1,073
リリース時間 : 3/16/2025

モデル概要

このモデルは Meta がリリースした Llama-3 シリーズの 8B パラメータ命令調整バージョンで、様々な推論タスクに最適化されており、特にメモリ制約のある環境に適しています。

モデル特徴

IQ-DynamicGate 超低ビット量子化
階層戦略を用いた 1-2 ビット量子化を採用し、前/後 25% 層に IQ4_XS、中間 50% 層に IQ2_XXS/IQ3_S を使用することで、パープレキシティを大幅に低減。
重要コンポーネント保護
埋め込み層と出力層に Q5_K 量子化を適用し、誤差伝播を 38% 削減。
メモリ効率最適化
様々な量子化オプション(IQ1_S から Q8_0)で異なるメモリ要件に対応、最小モデルはわずか 2.1GB。

モデル能力

テキスト生成
命令追従
低メモリ推論
CPU/エッジデバイス展開

使用事例

メモリ制約展開
エッジデバイス推論
メモリ制限のあるエッジデバイスで大規模言語モデルを実行
IQ1_S 量子化バージョンはわずか 2.1GB のメモリを必要
研究応用
超低ビット量子化研究
1-2 ビット量子化の効果と最適化手法の研究
IQ1_M パープレキシティ 43.9% 低減
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase