O

Openmoe Base

由 OrionZheng 开发
OpenMoE-Base是一个用于调试目的的混合专家(MoE)基础模型,仅训练了1280亿token。作为OpenMoE项目的一部分,旨在推动开源MoE社区发展。
下载量 73
发布时间 : 12/8/2023

模型简介

OpenMoE-Base是一个混合专家(MoE)架构的大语言模型,主要用于验证模型架构有效性。该项目致力于完整共享训练数据、策略、架构和权重等资源。

模型特点

开源MoE架构
完全开源的混合专家模型实现,促进MoE领域研究
完整训练资源
公开训练数据、策略、架构和权重等全部资源
调试验证用途
主要用于验证模型架构有效性,性能可能欠佳

模型能力

文本生成
语言理解

使用案例

研究开发
MoE架构研究
用于研究混合专家模型的训练动态和架构特性
验证了MoE架构的有效性
调试基准
作为更大规模MoE模型开发的调试基准
为8B和34B版本开发奠定了基础
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase