D

Deepseek V2 Lite IMat GGUF

由 legraphista 开发
DeepSeek-V2-Lite 的 GGUF 量化版本,通过 Llama.cpp imatrix 量化处理,减少存储和计算资源需求,便于部署。
下载量 491
发布时间 : 5/26/2024

模型简介

该模型是对 DeepSeek-V2-Lite 进行量化处理后的版本,适用于在资源受限的设备上进行高效推理。

模型特点

高效量化
通过 Llama.cpp imatrix 量化处理,显著减少模型大小和计算资源需求。
多量化选项
提供多种量化级别(如 Q8_0、Q6_K、Q4_K 等),适应不同硬件需求。
易于部署
支持在多种设备上运行,适合本地推理。

模型能力

文本生成
高效推理

使用案例

本地推理
文本生成
在本地设备上运行模型生成文本。
高效生成文本,适合资源受限环境。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase