O

Olmo 2 0425 1B

allenaiによって開発
OLMo 2 1Bはアレン人工知能研究所が公開したオープン言語モデルシリーズの中で最小のモデルで、OLMo-mix-1124で事前学習され、中間トレーニング段階でDolmino-mix-1124データセットが使用されました。
ダウンロード数 13.31k
リリース時間 : 4/17/2025

モデル概要

OLMo 2 1BはTransformerベースの自己回帰型言語モデルで、言語モデルの科学研究を推進し、英語テキスト生成タスクをサポートすることを目的としています。

モデル特徴

オープンソース
モデルコード、チェックポイント、トレーニングログおよび関連する詳細がすべてオープンソース化されており、研究と再現が容易です。
2段階トレーニング
初期事前学習と中間トレーニングの2段階戦略を採用し、高品質なデータセットを使用してモデル性能を最適化します。
量子化サポート
8ビット量子化をサポートし、リソースが制限された環境でも効率的に動作します。

モデル能力

英語テキスト生成
言語モデル研究
命令追従

使用事例

学術研究
言語モデルの科学研究
言語モデルのトレーニング、最適化、評価方法の研究に使用されます。
テキスト生成
コンテンツ作成
一貫性のある英語テキストコンテンツを生成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase