Mistral 7B Instruct V0.3 GPTQ 4bit
Mistral-7B-Instruct-v0.3の4ビット量子化バージョンで、GPTQ方法により推論性能を最適化し、高精度を維持します。
ダウンロード数 9,897
リリース時間 : 5/23/2024
モデル概要
このモデルはMistral-7B-Instruct-v0.3の4ビット重み量子化バージョンで、高効率な自然言語処理タスク向けに設計されており、元のモデルの99.75%の精度を維持しながら推論速度を向上させます。
モデル特徴
高効率4ビット量子化
GPTQ方法によりモデルの重みを4ビットに圧縮し、メモリ使用量と計算要件を大幅に削減します。
高精度保持
元のモデルと比較して99.75%の精度を維持し、性能の損失は極小です。
最適化推論性能
vLLMのMarlin混合精度カーネルをサポートし、高効率な推論を実現します。
モデル能力
テキスト生成
質問応答システム
コード生成
テキスト要約
対話システム
使用事例
教育
数学問題の解答
GSM8Kデータセットの数学問題を解きます。
5-shot正解率45.41%
知識質問応答
一般常識推論
AI2 Reasoning Challengeの推論問題
25-shot正解率63.40%
言語理解
言語理解評価
HellaSwagデータセットでの言語理解テスト
10-shot正解率84.04%
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98