M

Molm 700M 4B

ibm-researchによって開発
MoLMは混合エキスパート(MoE)アーキテクチャに基づく言語モデルシリーズで、700M-4Bバージョンは総パラメータ数40億、計算コストは7億パラメータの密モデル相当
ダウンロード数 36
リリース時間 : 9/13/2023

モデル概要

MoLMシリーズ言語モデルは混合エキスパートアーキテクチャを採用し、高パラメータ数を維持しながら動的活性化メカニズムにより計算コストを削減、テキスト生成や理解タスクに適している

モデル特徴

効率的計算アーキテクチャ
混合エキスパート設計により高パラメータ容量と低計算コストのバランスを実現
モジュール推論
各トークンで一部のエキスパートモジュールのみを活性化(本モデルは4モジュール活性化)
大規模事前学習
3000億トークンの公開データで学習完了

モデル能力

テキスト生成
言語理解
質問応答システム

使用事例

知識質問応答
オープンドメインQA
様々な常識的質問に回答
TriviaQAテストで5サンプル精度16.49%達成
コード生成
Pythonコード補完
説明に基づきPythonコードスニペットを生成
HumanEvalテスト通過率@100で20.27%達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase