M

Molm 700M 4B

Developed by ibm-research
MoLMは混合エキスパート(MoE)アーキテクチャに基づく言語モデルシリーズで、700M-4Bバージョンは総パラメータ数40億、計算コストは7億パラメータの密モデル相当
Downloads 36
Release Time : 9/13/2023

Model Overview

MoLMシリーズ言語モデルは混合エキスパートアーキテクチャを採用し、高パラメータ数を維持しながら動的活性化メカニズムにより計算コストを削減、テキスト生成や理解タスクに適している

Model Features

効率的計算アーキテクチャ
混合エキスパート設計により高パラメータ容量と低計算コストのバランスを実現
モジュール推論
各トークンで一部のエキスパートモジュールのみを活性化(本モデルは4モジュール活性化)
大規模事前学習
3000億トークンの公開データで学習完了

Model Capabilities

テキスト生成
言語理解
質問応答システム

Use Cases

知識質問応答
オープンドメインQA
様々な常識的質問に回答
TriviaQAテストで5サンプル精度16.49%達成
コード生成
Pythonコード補完
説明に基づきPythonコードスニペットを生成
HumanEvalテスト通過率@100で20.27%達成
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase