M

Mistral Small 3.1 24B Instruct 2503 GGUF

Mungertによって開発
これはMistral-Small-3.1-24B-Base-2503を基にした命令微調整モデルで、GGUFフォーマットとIQ-DynamicGate超低ビット量子化技術を採用しています。
ダウンロード数 10.01k
リリース時間 : 3/19/2025

モデル概要

このモデルは多言語大規模言語モデルで、複数の言語をサポートし、先進的な量子化技術により効率的な推論を実現します。

モデル特徴

IQ-DynamicGate 超低ビット量子化
精度適応型量子化技術を採用し、1-2ビット量子化下でも高い精度を維持
多言語サポート
24言語のテキスト生成をサポート
効率的推論
量子化技術によるメモリ効率化で、エッジデバイス展開に適しています

モデル能力

多言語テキスト生成
命令追従
低リソース推論

使用事例

エッジコンピューティング
モバイルアプリケーション
メモリ制約のあるモバイルデバイスにAIアシスタントを展開
0.1-0.3GBのメモリ使用量増加のみで高い精度を維持
研究
超低ビット量子化研究
1-2ビット量子化の効果と最適化方法の研究
IQ1_M量子化で困惑度43.9%低減
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase