M

Minicpm4 8B Q8 0 GGUF

AyyYOOによって開発
MiniCPM4-8B-Q8_0-GGUFは、llama.cppを使用してopenbmb/MiniCPM4-8BをGGUF形式に変換したモデルで、ローカル推論に適しています。
ダウンロード数 160
リリース時間 : 6/7/2025

モデル概要

このモデルはMiniCPM4-8BのGGUF形式のバージョンで、主にテキスト生成タスクに使用され、llama.cppを通じてローカルデプロイと推論をサポートします。

モデル特徴

GGUF形式サポート
モデルはGGUF形式に変換されており、llama.cppを通じたローカル推論が容易です。
ローカルデプロイ
ローカル環境での実行をサポートし、クラウドサービスに依存する必要がありません。
効率的な推論
llama.cppによる最適化により、効率的なテキスト生成能力を提供します。

モデル能力

テキスト生成
ローカル推論

使用事例

テキスト生成
クリエイティブライティング
物語、詩、またはその他のクリエイティブなテキストを生成します。
質問応答システム
ユーザーが提出した質問に回答します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase