M

Minicpm S 1B Sft

openbmbによって開発
MiniCPM-S-1B-sftは、活性化スパース化技術で最適化された10億パラメータ規模の言語モデルで、ProSparseメソッドにより高スパース推論加速を実現しつつ、元のモデルと同等の性能を維持しています。
ダウンロード数 169
リリース時間 : 4/25/2025

モデル概要

このモデルはProSparseトレーニング手法を採用し、FFNの活性化関数をReLUに置き換え、段階的なスパース正則化を行い、最終的に87.89%という高いスパース性を実現しました。効率的な推論が必要なシナリオに適しています。

モデル特徴

高活性スパース性
ProSparseメソッドにより87.89%のスパース性を実現し、同様のReLU活性化モデルを大幅に上回ります
効率的な推論加速
高スパース性と専用スパースGPU演算子を組み合わせ、PowerInferフレームワーク下で顕著な推論加速を実現
性能維持
元のSwish活性化モデルと同等の性能を維持しつつスパース化を実現
段階的スパーストレーニング
3段階のトレーニング戦略を採用: 活性化関数置換、段階的スパース正則化、活性化閾値シフト

モデル能力

テキスト生成
常識推論
コード生成
読解
数学問題解決
知識質問応答

使用事例

効率的推論アプリケーション
エッジデバイス展開
高スパース性を活用し、リソース制約のあるデバイスで効率的な推論を実現
PowerInferフレームワーク下で顕著な加速を実現
リアルタイム対話システム
低遅延応答が必要なチャットボットシナリオに適しています
教育アプリケーション
プログラミング学習支援
学生がコードを理解し生成するのを支援
HumanEvalスコア42.04、MBPPスコア41.38
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase