M

Minicpm4 8B Q8 0 GGUF

由AyyYOO開發
MiniCPM4-8B-Q8_0-GGUF 是通過 llama.cpp 將 openbmb/MiniCPM4-8B 轉換為 GGUF 格式的模型,適用於本地推理。
下載量 160
發布時間 : 6/7/2025

模型概述

該模型是 MiniCPM4-8B 的 GGUF 格式版本,主要用於文本生成任務,支持通過 llama.cpp 進行本地部署和推理。

模型特點

GGUF 格式支持
模型已轉換為 GGUF 格式,便於通過 llama.cpp 進行本地推理。
本地部署
支持在本地環境中運行,無需依賴雲端服務。
高效推理
通過 llama.cpp 優化,提供高效的文本生成能力。

模型能力

文本生成
本地推理

使用案例

文本生成
創意寫作
生成故事、詩歌或其他創意文本。
問答系統
回答用戶提出的問題。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase