M

Minicpm4 8B

由 openbmb 开发
MiniCPM4是专为端侧设备设计的高效大语言模型,通过系统创新在模型架构、训练数据、训练算法和推理系统四个维度实现极致效率提升,在端侧芯片上可实现超5倍的生成加速。
下载量 643
发布时间 : 6/5/2025

模型简介

MiniCPM4系列包含多个不同规模的模型,专注于在端侧设备上实现高效的大语言模型推理,支持长文本处理和多任务处理。

模型特点

高效模型架构
采用InfLLM v2可训练稀疏注意力机制,在处理128K长文本时,每个token只需与不到5%的token计算相关性,显著降低长文本计算开销。
高效学习算法
引入Model Wind Tunnel 2.0高效可预测缩放方法,采用BitCPM极端三元量化将模型参数位宽压缩至3值,实现90%的极端模型位宽减少。
高质量训练数据
构建UltraClean高质量预训练数据过滤和生成策略,开源高质量中英预训练数据集UltraFinweb。
高效推理系统
集成CPM.cu轻量级高效CUDA推理框架,整合稀疏注意力、模型量化和推测采样,实现高效预填充和解码。
长文本处理能力
原生支持最长32,768个token的上下文长度,通过RoPE缩放技术可扩展至131,072个token。

模型能力

文本生成
对话系统
长文本理解
工具调用
调查论文生成
多轮对话
知识密集型任务处理
推理密集型任务处理

使用案例

内容生成
文章写作
根据用户提示生成关于特定主题的文章
可生成结构完整、内容相关的长篇文章
调查论文生成
基于用户查询自主生成可信的长篇调查论文
MiniCPM4-Survey变体专门优化此功能
智能助手
多轮对话
与用户进行自然流畅的多轮对话
支持上下文理解和连贯的对话流
工具调用
根据用户需求自主调用相关工具
MiniCPM4-MCP变体专门优化此功能
信息检索与处理
长文档分析
处理和分析长达128K token的长文档
在大海捞针测试中表现出色
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase