M

Molm 700M 4B

由ibm-research開發
MoLM是基於混合專家(MoE)架構的語言模型系列,700M-4B版本總參數量40億,計算消耗相當於7億參數的稠密模型
下載量 36
發布時間 : 9/13/2023

模型概述

MoLM系列語言模型採用混合專家架構,在保持高參數量的同時通過動態激活機制降低計算消耗,適用於文本生成和理解任務

模型特點

高效計算架構
通過混合專家設計實現高參數容量與低計算消耗的平衡
模塊化推理
每token僅激活部分專家模塊(本模型激活4個模塊)
大規模預訓練
基於3000億token公開數據訓練完成

模型能力

文本生成
語言理解
問答系統

使用案例

知識問答
開放域問答
回答各類常識性問題
在TriviaQA測試中五樣本準確率達16.49%
代碼生成
Python代碼補全
根據描述生成Python代碼片段
HumanEval測試通過率@100達20.27%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase