M

Minicpm 2B 128k

由openbmb開發
MiniCPM是由面壁智能與清華大學自然語言處理實驗室聯合開發的端側大語言模型,非詞嵌入參數量僅24億(2.4B),支持128k上下文窗口。
下載量 145
發布時間 : 4/9/2024

模型概述

MiniCPM-2B-128k是基於MiniCPM-2B的長上下文擴展實驗版本,是首個參數量小於3B卻支持128k上下文的輕量級語言模型。

模型特點

128k長上下文支持
首個參數量小於3B卻支持128k上下文的輕量級語言模型,在綜合長文本評測InfiniteBench中取得7B以下模型最佳成績。
輕量級模型
非詞嵌入參數量僅24億(2.4B),適合端側部署。
ChatML格式支持
模型對齊時更新為chatml格式(用戶 {} 助手 ),便於通過vllm框架的OpenAI兼容服務器模式部署。

模型能力

長文本處理
對話生成
文本理解
知識問答

使用案例

長文本處理
長文檔問答
處理長達128k上下文的文檔問答任務
在InfiniteBench中文長書問答評測中得分23.06
對話系統
智能助手
構建支持長上下文記憶的對話助手
支持複雜的多輪對話交互
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase