A

AMD OLMo 1B

由amd開發
AMD-OLMo 是由 AMD 在 AMD Instinct™ MI250 GPU 上從頭開始訓練的一系列 10 億參數語言模型。
下載量 4,419
發布時間 : 10/31/2024

模型概述

AMD-OLMo 是一個基於 OLMo 架構的 10 億參數語言模型,經過預訓練、監督微調(SFT)和 DPO 對齊等多個階段訓練,具有較高的訓練吞吐量和多任務表現。

模型特點

高性能訓練
使用 AMD Instinct™ MI250 GPUs 進行訓練,具有較高的訓練吞吐量(12,200 標記/秒/ GPU)。
多階段微調
經過預訓練、監督微調(SFT)和 DPO 對齊等多個階段,提升模型性能。
多任務表現出色
在多個標準基準測試中表現優異,具有良好的常識推理、多任務理解和負責任 AI 能力。

模型能力

文本生成
指令遵循
多輪對話
常識推理
多任務理解

使用案例

研究
語言模型研究
用於研究語言模型的性能和行為。
聊天應用
聊天機器人
用於構建多輪對話聊天機器人。
在 MT-Bench 上得分為 4.35(AMD-OLMo-1B-SFT)
指令遵循
指令生成
根據用戶指令生成響應。
在 AlpacaEval 1 上勝率為 54.22%(AMD-OLMo-1B-SFT-DPO)
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase