O

Openmoe Base

OrionZhengによって開発
OpenMoE-Baseはデバッグ目的の混合エキスパート(MoE)ベースモデルで、1280億トークンのみトレーニングされています。OpenMoEプロジェクトの一部として、オープンソースMoEコミュニティの発展を推進することを目的としています。
ダウンロード数 73
リリース時間 : 12/8/2023

モデル概要

OpenMoE-Baseは混合エキスパート(MoE)アーキテクチャの大規模言語モデルで、主にモデルアーキテクチャの有効性を検証するために使用されます。このプロジェクトは、トレーニングデータ、戦略、アーキテクチャ、重みなどのリソースを完全に共有することを目指しています。

モデル特徴

オープンソースMoEアーキテクチャ
完全にオープンソースの混合エキスパートモデル実装で、MoE分野の研究を促進します
完全なトレーニングリソース
トレーニングデータ、戦略、アーキテクチャ、重みなどのすべてのリソースを公開しています
デバッグ検証用途
主にモデルアーキテクチャの有効性を検証するために使用され、性能は劣る可能性があります

モデル能力

テキスト生成
言語理解

使用事例

研究開発
MoEアーキテクチャ研究
混合エキスパートモデルのトレーニングダイナミクスとアーキテクチャ特性を研究するために使用されます
MoEアーキテクチャの有効性を検証しました
デバッグベンチマーク
大規模なMoEモデル開発のためのデバッグベンチマークとして使用されます
8Bおよび34Bバージョンの開発の基礎を築きました
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase