M

Mistral 7B Instruct V0.3 GPTQ 4bit

RedHatAIによって開発
Mistral-7B-Instruct-v0.3の4ビット量子化バージョンで、GPTQ方法により推論性能を最適化し、高精度を維持します。
ダウンロード数 9,897
リリース時間 : 5/23/2024

モデル概要

このモデルはMistral-7B-Instruct-v0.3の4ビット重み量子化バージョンで、高効率な自然言語処理タスク向けに設計されており、元のモデルの99.75%の精度を維持しながら推論速度を向上させます。

モデル特徴

高効率4ビット量子化
GPTQ方法によりモデルの重みを4ビットに圧縮し、メモリ使用量と計算要件を大幅に削減します。
高精度保持
元のモデルと比較して99.75%の精度を維持し、性能の損失は極小です。
最適化推論性能
vLLMのMarlin混合精度カーネルをサポートし、高効率な推論を実現します。

モデル能力

テキスト生成
質問応答システム
コード生成
テキスト要約
対話システム

使用事例

教育
数学問題の解答
GSM8Kデータセットの数学問題を解きます。
5-shot正解率45.41%
知識質問応答
一般常識推論
AI2 Reasoning Challengeの推論問題
25-shot正解率63.40%
言語理解
言語理解評価
HellaSwagデータセットでの言語理解テスト
10-shot正解率84.04%
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase