M

Minicpm 2B 128k

openbmbによって開発
MiniCPMは面壁智能と清華大学自然言語処理研究所が共同開発したエッジデバイス用大規模言語モデルで、非単語埋め込みパラメータ数はわずか24億(2.4B)で、128kのコンテキストウィンドウをサポートしています。
ダウンロード数 145
リリース時間 : 4/9/2024

モデル概要

MiniCPM-2B-128kはMiniCPM-2Bをベースにした長コンテキスト拡張実験バージョンで、初のパラメータ数が3B未満で128kのコンテキストをサポートする軽量級言語モデルです。

モデル特徴

128k長コンテキストサポート
初のパラメータ数が3B未満で128kのコンテキストをサポートする軽量級言語モデルで、総合長テキスト評価InfiniteBenchで7B以下のモデルで最高の成績を収めました。
軽量級モデル
非単語埋め込みパラメータ数はわずか24億(2.4B)で、エッジデバイスへのデプロイに適しています。
ChatML形式サポート
モデルのアライメント時にchatml形式(ユーザー {} アシスタント )に更新され、vllmフレームワークのOpenAI互換サーバーモードでのデプロイが容易になります。

モデル能力

長テキスト処理
対話生成
テキスト理解
知識問答

使用事例

長テキスト処理
長文書問答
最大128kのコンテキストを持つ文書問答タスクを処理します
InfiniteBenchの中国語長書問答評価で23.06点を獲得しました
対話システム
スマートアシスタント
長コンテキストの記憶をサポートする対話アシスタントを構築します
複雑な多輪対話インタラクションをサポートします
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase