🚀 ViGoRL:視覚推論用の視覚基礎強化学習
ViGoRL(Visually Grounded Reinforcement Learning)は、視覚推論用のモデルです。このプロジェクトでは、強化学習(RL)を用いて視覚言語モデルを微調整し、テキストの推論ステップと視覚座標を明確に関連付けます。
✨ 主な機能
- 多段階視覚定位:人間の視覚認知に着想を得て、ViGoRLは多段階視覚定位を採用し、画像領域を動的に拡大縮小して、細粒度の視覚推論と定位を実行します。
- 高精度視覚推論:このモデルは、高精度な視覚定位と領域レベルの推論が必要な視覚推論タスクで優れた性能を発揮します。
- 複数の訓練パラダイム:モデルは、モンテカルロ木探索(MCTS)によって生成された視覚基礎推論軌跡上で教師あり微調整(SFT)を行い、その後にグループ相対方策最適化(GRPO)による強化学習を行います。
📦 インストール
関連するインストール手順は現在提供されていません。必要な場合は、コードリポジトリ内の説明を参照してください。
💻 使用例
基本的な使用法
Hugging FaceのTransformersライブラリを使用すると、このモデルを簡単にロードできます。
from transformers import Qwen2_5_VLForConditionalGeneration, AutoTokenizer, AutoProcessor
from qwen_vl_utils import process_vision_info
import torch
model = Qwen2_5_VLForConditionalGeneration.from_pretrained(
"",
torch_dtype=torch.bfloat16,
attn_implementation="flash_attention_2",
device_map="auto",
)
processor = AutoProcessor.from_pretrained("")
messages = [
{
"role": "user",
"content": [
{
"type": "image",
"image": "path/to/image.png",
},
{"type": "text", "text": "QUERY HERE"},
],
}
]
text = processor.apply_chat_template(
messages, tokenize=False, add_generation_prompt=True
)
image_inputs, video_inputs = process_vision_info(messages)
inputs = processor(
text=[text],
images=image_inputs,
videos=video_inputs,
padding=True,
return_tensors="pt",
)
inputs = inputs.to("cuda")
generated_ids = model.generate(**inputs, max_new_tokens=512)
generated_ids_trimmed = [
out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
output_text = processor.batch_decode(
generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text)
⚠️ 重要な注意事項
このモデルは、正常に動作するためにシステムプロンプトが必要です。詳細については、モデルのチャットテンプレートを参照してください。
📚 ドキュメント
モデル概要
ViGoRLは、強化学習(RL)によって微調整された視覚言語モデルで、テキストの推論ステップを視覚座標に明確に固定します。人間の視覚認知に着想を得て、ViGoRLは多段階視覚定位を採用し、画像領域を動的に拡大縮小して、細粒度の視覚推論と定位を実行します。
このモデルは、モンテカルロ木探索(MCTS)によって生成された視覚基礎推論軌跡上で教師あり微調整(SFT)を行い、その後にグループ相対方策最適化(GRPO)による強化学習を行います。
モデルの詳細
属性 |
詳細 |
モデルタイプ |
Qwen2.5 - 視覚言語(3Bまたは7Bパラメータ) |
訓練データ |
1. MCTSで生成された推論軌跡上の教師あり微調整 2. グループ相対方策最適化(GRPO) 3. 動的拡大縮小フィードバック付きの多段階視覚定位(名前に「Multiturn」が含まれる場合) |
使用シーン
このモデルは、高精度な視覚定位と領域レベルの推論が必要な視覚推論タスクで優れた性能を発揮します。具体的な分野については、モデル名を参照してください。
- 空間推論:SAT - 2、BLINK、RoboSpatial
- 視覚検索:V*Bench
- ウェブページのインタラクションと定位:ScreenSpot(ProおよびV2)、VisualWebArena
🔧 技術詳細
このモデルは、論文 "Grounded Reinforcement Learning for Visual Reasoning" で提案されました。
著者:Gabriel Sarch、Snigdha Saha、Naitik Khandelwal、Ayush Jain、Michael J. Tarr、Aviral Kumar、Katerina Fragkiadaki
データセットと訓練データ
訓練データセットと生成された推論チェーンは公開されています。
引用
ViGoRLを研究やアプリケーションで使用する場合は、以下の論文を引用してください。
@article{sarch2025vigorl,
title={Grounded Reinforcement Learning for Visual Reasoning},
author={Sarch, Gabriel and Saha, Snigdha and Khandelwal, Naitik and Jain, Ayush and Tarr, Michael J and Kumar, Aviral and Fragkiadaki, Katerina},
year={2025}
}
連絡先
質問、フィードバック、または協力依頼がある場合は、Gabriel Sarchに連絡するか、GitHubリポジトリ で問題を提起してください。