# 三元量子化圧縮

Minicpm4 8B GGUF
Apache-2.0
MiniCPM4は、エッジデバイス向けに設計された高効率な大規模言語モデルです。同じ規模のモデルで最高の性能を維持しながら、極限までの効率向上を実現し、典型的なエッジチップでは5倍以上の生成速度向上を達成します。
大規模言語モデル Transformers 複数言語対応
M
openbmb
324
1
Minicpm4 8B Marlin Vllm
Apache-2.0
MiniCPM4はエッジデバイス向けに設計された高効率大規模言語モデルで、同じ規模の中で極限までの効率向上と最適な性能を実現しています。
大規模言語モデル Transformers 複数言語対応
M
openbmb
200
4
Minicpm4 0.5B
Apache-2.0
MiniCPM4はエッジデバイス向けに設計された高効率大規模言語モデルで、システム革新によりモデルアーキテクチャ、学習データ、学習アルゴリズム、推論システムの4つの重要な次元で極限までの効率向上を実現しています。
大規模言語モデル Transformers 複数言語対応
M
openbmb
415
20
Minicpm4 8B
Apache-2.0
MiniCPM4はエッジデバイス向けに設計された高効率大規模言語モデルで、システム革新によりモデルアーキテクチャ、学習データ、学習アルゴリズム、推論システムの4つの次元で極限までの効率向上を実現し、エッジチップ上で5倍以上の生成速度向上を達成します。
大規模言語モデル Transformers 複数言語対応
M
openbmb
643
103
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase