L

Llama 2 7b Chat Hf Q4 K M GGUF

由 matrixportal 开发
Meta发布的Llama 2系列7B参数聊天模型GGUF量化版本,适用于本地部署和推理
下载量 220
发布时间 : 11/22/2024

模型简介

基于Llama 2架构优化的对话模型,支持文本生成任务,经过4-bit量化处理以降低硬件需求

模型特点

量化压缩
采用GGUF格式的4-bit量化(Q4_K_M),显著减少模型体积和内存占用
本地部署
支持通过llama.cpp在本地设备运行,无需云端依赖
对话优化
专门针对对话场景微调的7B参数模型,平衡性能与资源消耗

模型能力

开放域对话
指令跟随
上下文理解
多轮对话

使用案例

智能助手
个人知识问答
部署为本地知识库接口,保护隐私的同时提供信息查询
开发测试
模型原型开发
用于快速验证对话系统原型,降低开发硬件门槛
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase