M

Meta Llama 3 70B Instruct Quantized.w8a16

RedHatAIによって開発
Meta-Llama-3-70B-Instructの量子化バージョンで、主に英語の商業および研究用途に使用され、効率的にアシスタント風のチャットを行うことができます。
ダウンロード数 1,035
リリース時間 : 7/2/2024

モデル概要

Meta-Llama-3アーキテクチャに基づく量子化モデルで、INT8量子化によりモデルサイズとGPUメモリ要件を削減し、英語の商業および研究用途に適しています。

モデル特徴

INT8量子化
Transformerブロック内の線形演算子の重みをINT8量子化することで、ディスクサイズとGPUメモリ要件を約50%削減します。
効率的なデプロイ
vLLMとTransformersを通じた効率的なデプロイをサポートし、マルチGPU環境に適しています。
高い回復率
OpenLLMベンチマークテストでは、量子化モデルの性能回復率が98.4%に達します。

モデル能力

テキスト生成
アシスタント風チャット
商業用途
研究用途

使用事例

商業アプリケーション
カスタマーサービスアシスタント
英語のカスタマーサービス応答を生成し、応答効率を向上させます。
研究アプリケーション
学術研究アシスタント
研究者が英語の研究内容や要約を生成するのを支援します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase