L

Llama 2 7b Chat Hf Q4 K M GGUF

由matrixportal開發
Meta發佈的Llama 2系列7B參數聊天模型GGUF量化版本,適用於本地部署和推理
下載量 220
發布時間 : 11/22/2024

模型概述

基於Llama 2架構優化的對話模型,支持文本生成任務,經過4-bit量化處理以降低硬件需求

模型特點

量化壓縮
採用GGUF格式的4-bit量化(Q4_K_M),顯著減少模型體積和內存佔用
本地部署
支持通過llama.cpp在本地設備運行,無需雲端依賴
對話優化
專門針對對話場景微調的7B參數模型,平衡性能與資源消耗

模型能力

開放域對話
指令跟隨
上下文理解
多輪對話

使用案例

智能助手
個人知識問答
部署為本地知識庫接口,保護隱私的同時提供信息查詢
開發測試
模型原型開發
用於快速驗證對話系統原型,降低開發硬件門檻
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase