M

Meta Llama 3 8B Instruct FP8 KV

由RedHatAI開發
Meta-Llama-3-8B-Instruct模型經過FP8權重和激活值的逐張量量化,適用於vLLM >= 0.5.0進行推理。該模型檢查點還包含FP8量化KV緩存的逐張量縮放參數。
下載量 3,153
發布時間 : 5/20/2024

模型概述

這是一個經過FP8量化的Meta-Llama-3-8B-Instruct模型,支持FP8 KV緩存,適用於高效推理。

模型特點

FP8量化
模型權重和激活值經過FP8逐張量量化,減少內存佔用同時保持精度
FP8 KV緩存支持
包含FP8量化KV緩存的逐張量縮放參數,可通過vLLM調用
高效推理
專為vLLM >= 0.5.0優化,提供高效的推理性能

模型能力

文本生成
對話系統
指令跟隨

使用案例

對話系統
聊天機器人
構建高效的聊天機器人應用
內容生成
文本創作
輔助進行各種文本創作任務
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase