R

RM R1 Qwen2.5 Instruct 14B

gaotangによって開発
RM-R1は推論報酬モデル(ReasRM)のためのトレーニングフレームワークで、評価基準や推論軌跡を生成して候補回答を判断し、説明可能な評価を提供します。
ダウンロード数 21
リリース時間 : 5/6/2025

モデル概要

RM-R1は革新的な報酬モデルフレームワークで、2段階のトレーニング(高品質な推論軌跡の蒸留と検証可能な報酬を用いた強化学習)により、報酬モデルの精度と説明可能性を向上させます。

モデル特徴

推論報酬モデル
評価基準や推論軌跡を生成して候補回答を判断し、完全に説明可能な評価を提供します。
2段階トレーニング
1. 約8.7Kの高品質推論軌跡を蒸留;2. 約64Kの選好ペアで検証可能な報酬を用いた強化学習(RLVR)を実施。
高性能
公開されている報酬モデルベンチマークテストで+13.8%の絶対精度向上を達成。

モデル能力

テキストランキング
推論軌跡生成
評価基準生成
選好判断

使用事例

強化学習
RLHF/RLAIF
プラグアンドプレイの報酬関数としてポリシー最適化に使用
自動評価
LLM評価者
オープンドメインQA、チャット、推論の自動評価に使用
研究
プロセス監視研究
思考連鎖検証や評価基準生成の研究
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase