A

AMD OLMo 1B

Developed by amd
AMD-OLMoは、AMDがAMD Instinct™ MI250 GPU上でゼロからトレーニングした10億パラメータの一連の言語モデルです。
Downloads 4,419
Release Time : 10/31/2024

Model Overview

AMD-OLMoは、OLMoアーキテクチャに基づく10億パラメータの言語モデルで、事前学習、教師付き微調整(SFT)、DPOアライメントなどの複数の段階を経てトレーニングされ、高いトレーニングスループットと多タスク性能を備えています。

Model Features

高性能トレーニング
AMD Instinct™ MI250 GPUを使用してトレーニングされ、高いトレーニングスループット(12,200トークン/秒/GPU)を持ちます。
多段階微調整
事前学習、教師付き微調整(SFT)、DPOアライメントなどの複数の段階を経て、モデルの性能を向上させます。
多タスクでの優れた性能
複数の標準ベンチマークテストで優れた成績を収め、良好な常識推論、多タスク理解、責任あるAI能力を備えています。

Model Capabilities

テキスト生成
命令遵守
多輪対話
常識推論
多タスク理解

Use Cases

研究
言語モデルの研究
言語モデルの性能と動作を研究するために使用されます。
チャットアプリ
チャットボット
多輪対話チャットボットを構築するために使用されます。
MT - Benchで4.35点(AMD-OLMo-1B-SFT)
命令遵守
命令生成
ユーザーの命令に基づいて応答を生成します。
AlpacaEval 1で勝率54.22%(AMD-OLMo-1B-SFT-DPO)
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase