L

Llama 2 7b Chat Hf Q4 K M GGUF

Developed by matrixportal
Meta发布的Llama 2系列7B参数聊天模型GGUF量化版本,适用于本地部署和推理
Downloads 220
Release Time : 11/22/2024

Model Overview

基于Llama 2架构优化的对话模型,支持文本生成任务,经过4-bit量化处理以降低硬件需求

Model Features

量化压缩
采用GGUF格式的4-bit量化(Q4_K_M),显著减少模型体积和内存占用
本地部署
支持通过llama.cpp在本地设备运行,无需云端依赖
对话优化
专门针对对话场景微调的7B参数模型,平衡性能与资源消耗

Model Capabilities

开放域对话
指令跟随
上下文理解
多轮对话

Use Cases

智能助手
个人知识问答
部署为本地知识库接口,保护隐私的同时提供信息查询
开发测试
模型原型开发
用于快速验证对话系统原型,降低开发硬件门槛
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase