A

AMD OLMo 1B

amdによって開発
AMD-OLMoは、AMDがAMD Instinct™ MI250 GPU上でゼロからトレーニングした10億パラメータの一連の言語モデルです。
ダウンロード数 4,419
リリース時間 : 10/31/2024

モデル概要

AMD-OLMoは、OLMoアーキテクチャに基づく10億パラメータの言語モデルで、事前学習、教師付き微調整(SFT)、DPOアライメントなどの複数の段階を経てトレーニングされ、高いトレーニングスループットと多タスク性能を備えています。

モデル特徴

高性能トレーニング
AMD Instinct™ MI250 GPUを使用してトレーニングされ、高いトレーニングスループット(12,200トークン/秒/GPU)を持ちます。
多段階微調整
事前学習、教師付き微調整(SFT)、DPOアライメントなどの複数の段階を経て、モデルの性能を向上させます。
多タスクでの優れた性能
複数の標準ベンチマークテストで優れた成績を収め、良好な常識推論、多タスク理解、責任あるAI能力を備えています。

モデル能力

テキスト生成
命令遵守
多輪対話
常識推論
多タスク理解

使用事例

研究
言語モデルの研究
言語モデルの性能と動作を研究するために使用されます。
チャットアプリ
チャットボット
多輪対話チャットボットを構築するために使用されます。
MT - Benchで4.35点(AMD-OLMo-1B-SFT)
命令遵守
命令生成
ユーザーの命令に基づいて応答を生成します。
AlpacaEval 1で勝率54.22%(AMD-OLMo-1B-SFT-DPO)
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase