M

Meta Llama 3 8B Instruct FP8 KV

Developed by RedHatAI
Meta-Llama-3-8B-Instruct模型經過FP8權重和激活值的逐張量量化,適用於vLLM >= 0.5.0進行推理。該模型檢查點還包含FP8量化KV緩存的逐張量縮放參數。
Downloads 3,153
Release Time : 5/20/2024

Model Overview

這是一個經過FP8量化的Meta-Llama-3-8B-Instruct模型,支持FP8 KV緩存,適用於高效推理。

Model Features

FP8量化
模型權重和激活值經過FP8逐張量量化,減少內存佔用同時保持精度
FP8 KV緩存支持
包含FP8量化KV緩存的逐張量縮放參數,可通過vLLM調用
高效推理
專為vLLM >= 0.5.0優化,提供高效的推理性能

Model Capabilities

文本生成
對話系統
指令跟隨

Use Cases

對話系統
聊天機器人
構建高效的聊天機器人應用
內容生成
文本創作
輔助進行各種文本創作任務
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase