L

Llama 3.3 70B Instruct FP8 Dynamic

RedHatAIによって開発
Llama-3.3-70B-Instruct-FP8-dynamicは最適化された大規模言語モデルで、活性化関数と重みをFP8データ型に量子化することで、GPUメモリの必要量を削減し、計算スループットを向上させ、多言語の商用および研究用途をサポートします。
ダウンロード数 6,060
リリース時間 : 12/11/2024

モデル概要

命令微調整されたテキストモデルは、アシスタントのようなチャットシーンに適しており、事前学習モデルは様々な自然言語生成タスクに適応できます。また、Llama 3.3モデルは、そのモデルの出力を利用して他のモデルを改善することもサポートしており、合成データ生成や蒸留を含みます。

モデル特徴

FP8量子化最適化
活性化関数と重みをFP8データ型に量子化することで、GPUメモリの必要量を約50%削減し、行列乗算の計算スループットを約2倍に向上させ、同時にディスク容量の必要量も約50%削減します。
多言語サポート
英語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語、ドイツ語などの多言語をサポートし、異なる言語環境の商用および研究用途に適しています。
効率的なデプロイ
vLLMバックエンドを使用した効率的なデプロイをサポートし、OpenAI互換のサービスと互換性があります。

モデル能力

テキスト生成
多言語サポート
チャットアシスタント
自然言語処理
命令微調整

使用事例

商用および研究
多言語チャットアシスタント
異なる言語環境の商用および研究用途に適しており、アシスタントのようなチャットシーンをサポートします。
自然言語生成
事前学習モデルは様々な自然言語生成タスクに適応できます。
モデル改善
合成データ生成
モデルの出力を利用して他のモデルを改善することができ、合成データ生成や蒸留を含みます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase