O

Olmo 2 0425 1B SFT

allenaiによって開発
OLMo 2 1B SFTはOLMo-2-0425-1Bモデルの教師ありファインチューニング版で、Tulu 3データセットで訓練され、様々なタスクで最先端の性能を実現することを目的としています。
ダウンロード数 1,759
リリース時間 : 4/24/2025

モデル概要

これはオープン言語モデルで、主に英語テキスト生成タスクに使用され、Apache 2.0ライセンスの下で公開されており、研究や教育用途に適しています。

モデル特徴

オープン言語モデル
完全にオープンソースのコード、重み、トレーニングデータを公開し、言語モデルの科学研究を推進
マルチタスク最適化
Tulu 3データセットでファインチューニングされ、MATH、GSM8K、IFEvalなどの様々なタスク性能を最適化
透明なトレーニング
すべてのトレーニングコード、チェックポイント、ログを公開し、研究の再現性を確保

モデル能力

テキスト生成
対話システム
数学問題解答
事実質問応答

使用事例

教育
数学問題解答
GSM8KとMATHデータセットの数学問題を解答
GSM8Kで52.1点、MATHで13.2点を達成
研究
言語モデル研究
言語モデルの行動と能力の研究に使用
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase