M

Minicpm4 0.5B

openbmbによって開発
MiniCPM4はエッジデバイス向けに設計された高効率大規模言語モデルで、システム革新によりモデルアーキテクチャ、学習データ、学習アルゴリズム、推論システムの4つの重要な次元で極限までの効率向上を実現しています。
ダウンロード数 415
リリース時間 : 6/5/2025

モデル概要

MiniCPM4シリーズはエッジデバイス向けに特別に設計された高効率大規模言語モデルで、0.5Bバージョンは0.5億のパラメータを持ち、1Tのトークンで学習されています。

モデル特徴

高効率モデルアーキテクチャ
InfLLM v2の学習可能な疎な注意力機構を採用し、128Kの長文テキストを処理する際に計算コストを大幅に削減
高効率学習アルゴリズム
モデルウインドトンネル2.0、BitCPMの極致な三元量子化などの革新的な技術を含み、高効率な学習と圧縮を実現
高品質学習データ
UltraCleanデータフィルタリングと生成技術を使用し、高品質の事前学習と監督微調整データセットを構築
高効率推論システム
CPM.cuの軽量CUDA推論フレームワークとArkInferのクロスプラットフォーム展開システムを提供

モデル能力

テキスト生成
対話インタラクション
長文テキスト理解
ツール呼び出し
調査報告書生成

使用事例

コンテンツ作成
記事執筆
ユーザーの指示に基づいて高品質の記事を生成
例ではAI関連の記事の生成能力を示しています
旅行推薦
観光スポット推薦
ユーザーの要求に基づいて観光スポットを推薦
例では北京の5つの観光スポットの推薦を示しています
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase