O

Olmo 2 0325 32B

allenaiによって開発
OLMo 2 32Bはアレン人工知能研究所(AI2)が公開したオープン言語モデルシリーズで最大規模の32Bパラメータモデルで、Apache 2.0ライセンスでオープンソース化されており、英語言語処理をサポートしています。
ダウンロード数 2,246
リリース時間 : 2/23/2025

モデル概要

OLMo 2 32Bは自己回帰型Transformer言語モデルで、言語モデルの科学研究を推進することを目的としています。このモデルは初期事前トレーニングと中期トレーニングを含む多段階トレーニングを経ており、複数の評価ベンチマークで優れた性能を示しています。

モデル特徴

完全オープンソース
モデルコード、チェックポイント、トレーニングログが全てオープンソースで、科学研究をサポート
多段階トレーニング
初期事前トレーニングと中期トレーニング段階を含み、混合データセットを使用して性能を最適化
高性能
複数の評価ベンチマークで同様のオープンソースモデルを上回る
マルチバージョンサポート
基本モデル、教師付き微調整版、選好最適化版、命令版など様々なバリエーションを提供

モデル能力

テキスト生成
言語理解
質問応答システム
数学的推論

使用事例

学術研究
言語モデル科学研究
言語モデルのトレーニング方法、アーキテクチャ最適化などの研究に使用可能
ビジネスアプリケーション
インテリジェント質問応答システム
知識ベースの質問応答アプリケーションの構築
コンテンツ生成
記事、レポートなどのテキストコンテンツの自動生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase