Minicpm 2B Sft Fp32
MiniCPM 是面壁智能與清華大學自然語言處理實驗室共同開源的系列端側語言大模型,主體語言模型 MiniCPM-2B 僅有 24億(2.4B)的非詞嵌入參數量。
Downloads 218
Release Time : 1/30/2024
Model Overview
MiniCPM 是面向端側的高效語言大模型,經過監督微調(SFT)和直接偏好優化(DPO)後,在多項評測中表現優異,支持中英文,可在手機端部署。
Model Features
端側高效部署
經過 Int4 量化後可在手機上進行部署推理,流式輸出速度略高於人類說話速度。
性能優異
在公開評測中表現與 Mistral-7B 相近,整體性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。
多模態支持
基於 MiniCPM-2B 構建的端側多模態大模型 MiniCPM-V,性能超越同規模模型。
低成本開發
僅需一張1080/2080顯卡即可高效進行參數高效微調,二次開發成本較低。
Model Capabilities
文本生成
對話系統
多模態理解
代碼生成
數學推理
Use Cases
智能助手
問答系統
回答用戶提出的各種問題
在中文、數學、代碼能力上表現優異
教育
學習輔助
幫助學生解答學習問題
在數學推理能力上表現良好
開發輔助
代碼生成
輔助開發者生成代碼片段
在代碼能力評測中表現優異
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 Chinese
R
uer
2,694
98