O

Olmo 2 0325 32B

由allenai開發
OLMo 2 32B是艾倫人工智能研究院(AI2)推出的開放語言模型系列中規模最大的32B參數模型,基於Apache 2.0許可開源,支持英語語言處理。
下載量 2,246
發布時間 : 2/23/2025

模型概述

OLMo 2 32B是一個自迴歸Transformer語言模型,旨在推動語言模型科學研究。該模型經過多階段訓練,包括初始預訓練和中期訓練,並在多個評估基準上表現出色。

模型特點

完全開源
模型代碼、檢查點、訓練日誌全部開源,支持科學研究
多階段訓練
包含初始預訓練和中期訓練階段,採用混合數據集優化性能
高性能表現
在多個評估基準上超越同類開源模型
多版本支持
提供基礎模型、監督微調版、偏好優化版和指令版等多種變體

模型能力

文本生成
語言理解
問答系統
數學推理

使用案例

學術研究
語言模型科學研究
可用於研究語言模型的訓練方法、架構優化等
商業應用
智能問答系統
構建基於知識的問答應用
內容生成
自動生成文章、報告等文本內容
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase