P

Pangu Pro Moe Model

由 IntervitensInc 开发
盘古 Pro MoE 是基于新型分组混合专家模型(MoGE)构建的语言模型,实现了设备间天然的负载均衡,具有强大的自然语言处理能力。
下载量 633
发布时间 : 7/1/2025

模型简介

盘古 Pro MoE 是一种高效的分组混合专家模型,专为昇腾硬件优化设计,适用于各种自然语言处理任务。

模型特点

分组混合专家架构
采用新型MoGE架构,在专家选择阶段对专家进行分组,并约束token在每个组内激活等量专家,实现设备间天然的负载均衡。
昇腾原生优化
专为昇腾硬件设计,充分利用NPU计算能力,实现高效推理。
大规模预训练
基于15T预训练语料训练,具备强大的语言理解和生成能力。

模型能力

文本生成
语言理解
对话系统
内容创作

使用案例

智能对话
智能客服
用于构建企业级智能客服系统,自动回答客户咨询。
内容生成
文章创作
根据用户提示自动生成各类文章内容。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase