M

Minicpm4 8B Q8 0 GGUF

由 AyyYOO 开发
MiniCPM4-8B-Q8_0-GGUF 是通过 llama.cpp 将 openbmb/MiniCPM4-8B 转换为 GGUF 格式的模型,适用于本地推理。
下载量 160
发布时间 : 6/7/2025

模型简介

该模型是 MiniCPM4-8B 的 GGUF 格式版本,主要用于文本生成任务,支持通过 llama.cpp 进行本地部署和推理。

模型特点

GGUF 格式支持
模型已转换为 GGUF 格式,便于通过 llama.cpp 进行本地推理。
本地部署
支持在本地环境中运行,无需依赖云端服务。
高效推理
通过 llama.cpp 优化,提供高效的文本生成能力。

模型能力

文本生成
本地推理

使用案例

文本生成
创意写作
生成故事、诗歌或其他创意文本。
问答系统
回答用户提出的问题。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase