M

Mistral 7B Instruct V0.2 GGUF

Mungertによって開発
Mistral-7B-Instruct-v0.2はMistral-7Bアーキテクチャに基づく命令微調整モデルで、テキスト生成タスクをサポートし、IQ-DynamicGate超低ビット量子化技術によりメモリ効率を最適化しています。
ダウンロード数 742
リリース時間 : 3/16/2025

モデル概要

このモデルは7Bパラメータの命令微調整大規模言語モデルで、テキスト生成タスクをサポートし、特に低メモリデバイスでの実行効率を最適化しています。

モデル特徴

IQ-DynamicGate超低ビット量子化
1-2ビット精度の適応型量子化技術を採用し、メモリ効率を維持しながらモデルの精度を向上させます。
動的精度割り当て
上位25%と下位25%の層にIQ4_XSを使用し、中間50%の層にIQ2_XXS/IQ3_Sを使用、重要なコンポーネント保護にQ5_Kを使用します。
多フォーマットサポート
BF16、F16および様々な量子化フォーマット(Q4_K、Q6_K、Q8_0など)を提供し、異なるハードウェア要件に対応します。

モデル能力

テキスト生成
命令追従
低メモリ推論

使用事例

メモリ制約展開
エッジデバイスでのテキスト生成
メモリが限られたエッジデバイスでテキスト生成タスクを実行します。
IQ1_Mの困惑度43.9%低下、メモリ使用量は0.3GBのみ増加
研究応用
超低ビット量子化研究
1-2ビット量子化がモデル性能に与える影響を研究します。
IQ2_Sの困惑度36.9%低下
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase