O

Openmoe Base

由OrionZheng開發
OpenMoE-Base是一個用於調試目的的混合專家(MoE)基礎模型,僅訓練了1280億token。作為OpenMoE項目的一部分,旨在推動開源MoE社區發展。
下載量 73
發布時間 : 12/8/2023

模型概述

OpenMoE-Base是一個混合專家(MoE)架構的大語言模型,主要用於驗證模型架構有效性。該項目致力於完整共享訓練數據、策略、架構和權重等資源。

模型特點

開源MoE架構
完全開源的混合專家模型實現,促進MoE領域研究
完整訓練資源
公開訓練數據、策略、架構和權重等全部資源
調試驗證用途
主要用於驗證模型架構有效性,性能可能欠佳

模型能力

文本生成
語言理解

使用案例

研究開發
MoE架構研究
用於研究混合專家模型的訓練動態和架構特性
驗證了MoE架構的有效性
調試基準
作為更大規模MoE模型開發的調試基準
為8B和34B版本開發奠定了基礎
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase