M

Mistral Small 24B Instruct 2501 Quantized.w8a8

RedHatAIによって開発
INT8量子化を施した24BパラメータのMistral命令微調整モデルで、GPUメモリ要件を大幅に削減し、計算スループットを向上させます。
ダウンロード数 158
リリース時間 : 3/3/2025

モデル概要

Mistral-Small-24B-Instruct-2501に基づく量子化バージョンで、多言語テキスト生成と対話タスクをサポートし、低遅延推論シナリオに適しています。

モデル特徴

効率的な量子化
W8A8量子化方式を採用し、メモリ使用量とディスク容量を50%削減し、計算スループットを2倍に向上させます。
多言語サポート
24種類の言語のテキスト生成と理解をサポートします。
低遅延推論
最適化されたモデルは、迅速な応答が必要な対話シナリオに特に適しています。
企業レベルのデプロイメントサポート
Red Hatエコシステムのフルスタックデプロイメントソリューションを提供します。

モデル能力

多言語テキスト生成
命令追従
長文書理解
プログラミング支援
数学的推論

使用事例

対話システム
カスタマーサポートロボット
低遅延の多言語カスタマーサポート対話システムを構築します。
開発支援
コード生成
開発者がコード断片を生成および最適化するのを支援します。
教育
数学問題の解答
数学問題を説明して解決します。
GSM8K評価スコア90.00
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase