P

Phi 4 Quantized.w4a16

由RedHatAI開發
phi-4的INT4量化版本,通過權重量化減少75%的存儲和內存需求,保持高性能
下載量 723
發布時間 : 3/3/2025

模型概述

基於microsoft/phi-4的量化模型,適用於內存/計算受限環境和延遲敏感場景,特別擅長邏輯推理任務

模型特點

高效量化
採用INT4權重量化,磁盤大小和GPU內存需求減少約75%
高性能保持
量化後性能保持率達99.3%,在OpenLLM基準測試中表現優異
推理優化
特別適合內存/計算受限環境和延遲敏感場景
多領域能力
在自然語言處理、數學和代碼生成等任務中表現突出

模型能力

文本生成
邏輯推理
數學計算
代碼生成
對話交互

使用案例

資源受限環境
邊緣設備部署
在內存有限的邊緣設備上運行大型語言模型
減少75%內存需求
低延遲應用
需要快速響應的即時對話系統
保持高性能同時降低延遲
專業領域
數學問題求解
解決複雜的數學問題和邏輯推理
GSM-8K基準測試得分89.69
代碼輔助
幫助開發者生成和優化代碼
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase