M

Meta Llama 3 70B Instruct FP8

RedHatAIによって開発
Meta-Llama-3-70B-Instruct-FP8はMeta-Llama-3-70B-Instructの量子化バージョンで、FP8量子化によりディスク容量とGPUメモリの要件を削減し、同時に高いパフォーマンスを維持し、英語のビジネスおよび研究用途に適しています。
ダウンロード数 22.10k
リリース時間 : 5/24/2024

モデル概要

このモデルはMeta-Llama-3-70B-InstructのFP8量子化バージョンで、アシスタントのようなチャットシーンに適しており、主に英語のビジネスおよび研究用途に使用されます。

モデル特徴

FP8量子化
重みと活性化をFP8データ型に量子化することで、ディスク容量とGPUメモリの要件を大幅に削減し、同時に高いパフォーマンスを維持します。
高パフォーマンス
OpenLLMベンチマークテストでの平均スコアは79.16で、量子化されていないモデルの79.51に近く、回復率は99.55%に達します。
高効率デプロイ
vLLMバックエンドを使用した高効率デプロイをサポートし、OpenAIと互換性のあるサービスを提供します。

モデル能力

英語テキスト生成
チャットアシスタント
ビジネスおよび研究用途

使用事例

ビジネスおよび研究
チャットアシスタント
アシスタントのようなチャットボットを構築するために使用され、英語の対話をサポートします。
OpenLLMベンチマークテストで優れた結果を示し、量子化されていないモデルに近い性能を発揮します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase