M

Mistral Small 3.1 24B Instruct 2503 Quantized.w8a8

RedHatAIによって開発
これはRed HatとNeural Magicによって最適化されたINT8量子化されたMistral-Small-3.1-24B-Instruct-2503モデルで、高速応答と低遅延シナリオに適しています。
ダウンロード数 833
リリース時間 : 4/15/2025

モデル概要

このモデルはMistral-Small-3.1-24B-Instruct-2503の量子化バージョンで、重みと活性化をINT8に量子化することで、GPUメモリ要件を大幅に削減し、計算効率を向上させました。

モデル特徴

効率的な量子化
INT8量子化技術により、GPUメモリ要件を約50%削減し、計算スループットを約2倍向上
多言語サポート
24言語のテキスト生成と理解をサポート
多機能アプリケーション
対話エージェント、関数呼び出し、ドキュメント理解、視覚理解など多様なタスクに適用可能
高速応答
最適化されたモデルは特に低遅延が求められるアプリケーションシナリオに適しています

モデル能力

テキスト生成
多言語処理
対話エージェント
関数呼び出し
長文書理解
視覚理解
プログラミングと数学的推論

使用事例

対話システム
カスタマーサービスチャットボット
高速応答型カスタマーサービスエージェントの展開
応答遅延を低減し、ユーザー体験を向上
開発ツール
コードアシスタント
開発者のプログラミングとデバッグを支援
開発効率を向上
コンテンツ理解
長文書要約
長文書の内容を迅速に理解し要約
情報処理効率を向上
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase