M

Meta Llama 3.1 8B Instruct Quantized.w4a16

RedHatAIによって開発
Meta-Llama-3.1-8B-Instructの量子化バージョンで、ディスク容量とGPUメモリの要件を削減するように最適化されており、英語のビジネスおよび研究用途のチャットアシスタントシナリオに適しています。
ダウンロード数 27.51k
リリース時間 : 7/26/2024

モデル概要

これはINT4重み量子化された8Bパラメータの大規模言語モデルで、英語のチャットアシスタントシナリオ向けに最適化されており、ビジネスおよび研究用途に適しています。

モデル特徴

高効率量子化
INT4重み量子化技術を採用し、ディスク容量とGPUメモリの要件を75%削減します。
高性能推論
vLLMバックエンドのデプロイをサポートし、高効率推論を実現します。
ビジネス用途
ビジネスおよび研究用途向けに最適化され、アシスタント型チャットシナリオに適しています。
多プラットフォーム対応
Red Hat AI Inference Server、Red Hat Enterprise Linux AI、Red Hat Openshift AIなどの様々なプラットフォームでのデプロイをサポートします。

モデル能力

英語テキスト生成
複数回の対話
知識問答
命令追従

使用事例

ビジネスアシスタント
カスタマーサービスチャットボット
顧客の問い合わせの処理と情報提供に使用します。
ユーザーの意図を正確に理解し、関連する回答を提供できます。
研究ツール
知識問答システム
学術研究と知識検索に使用します。
MMLUなどのベンチマークテストで優れた性能を発揮します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase