M

Mistral Small 24B Instruct 2501 Quantized.w8a8

Developed by RedHatAI
INT8量子化を施した24BパラメータのMistral命令微調整モデルで、GPUメモリ要件を大幅に削減し、計算スループットを向上させます。
Downloads 158
Release Time : 3/3/2025

Model Overview

Mistral-Small-24B-Instruct-2501に基づく量子化バージョンで、多言語テキスト生成と対話タスクをサポートし、低遅延推論シナリオに適しています。

Model Features

効率的な量子化
W8A8量子化方式を採用し、メモリ使用量とディスク容量を50%削減し、計算スループットを2倍に向上させます。
多言語サポート
24種類の言語のテキスト生成と理解をサポートします。
低遅延推論
最適化されたモデルは、迅速な応答が必要な対話シナリオに特に適しています。
企業レベルのデプロイメントサポート
Red Hatエコシステムのフルスタックデプロイメントソリューションを提供します。

Model Capabilities

多言語テキスト生成
命令追従
長文書理解
プログラミング支援
数学的推論

Use Cases

対話システム
カスタマーサポートロボット
低遅延の多言語カスタマーサポート対話システムを構築します。
開発支援
コード生成
開発者がコード断片を生成および最適化するのを支援します。
教育
数学問題の解答
数学問題を説明して解決します。
GSM8K評価スコア90.00
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase