M

Mistral Small 24B Instruct 2501 GPTQ G128 W4A16 MSE

ConfidentialMindによって開発
これはmistralai/Mistral-Small-24B-Instruct-2501モデルの4ビット量子化バージョンで、ConfidentialMind.comによって量子化され、より小さく、より高速なモデルを実現し、性能の損失は極めて小さいです。
ダウンロード数 93
リリース時間 : 2/15/2025

モデル概要

Mistral-Small-24B-Instruct-2501に基づく4ビット量子化モデルで、主にテキスト生成タスクに使用され、効率的な推論が必要なシナリオに適しています。

モデル特徴

効率的な4ビット量子化
GPTQ技術を使用して4ビット精度の量子化を実現し、モデルサイズと推論時間を大幅に削減します。
グループサイズ128
グループサイズ128の量子化戦略を採用し、モデルの精度と推論効率のバランスを取ります。
MSE最適化
MSE(平均二乗誤差)と高い減衰係数を使用して量子化を最適化し、損失とパープレキシティを減少させます。
シングルGPUサポート
最適化後、単一のNVIDIA A100 GPU(80GB VRAM)で効率的に動作します。

モデル能力

テキスト生成
効率的な推論
量子化モデル展開

使用事例

効率的なテキスト生成
高速コンテンツ生成
リソースが制限された環境で高品質のテキストコンテンツを迅速に生成します。
高い生成品質を維持しながら、推論速度を大幅に向上させます。
研究応用
量子化技術研究
大規模モデルの量子化技術の研究ケースとして使用します。
4ビット量子化が大規模言語モデルに適用された効果を示します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase