模型概述
模型特點
模型能力
使用案例
🚀 Qwen2.5-VL-7B-Instruct
Qwen2.5-VL-7B-Instruct 是 Qwen 系列的最新模型,具備強大的視覺理解和多模態處理能力。它能夠分析圖像中的文本、圖表等元素,處理長視頻,進行視覺定位和生成結構化輸出,在多個圖像和視頻基準測試中表現出色。
🚀 快速開始
安裝依賴
Qwen2.5-VL 的代碼已集成在最新的 Hugging Face Transformers 中,建議使用以下命令從源代碼進行安裝:
pip install git+https://github.com/huggingface/transformers accelerate
否則可能會遇到以下錯誤:
KeyError: 'qwen2_5_vl'
同時,可使用以下命令安裝工具包,以便更方便地處理各種類型的視覺輸入:
# 強烈建議使用 `[decord]` 特性以更快地加載視頻
pip install qwen-vl-utils[decord]==0.0.8
如果不使用 Linux 系統,可能無法從 PyPI 安裝 decord
。這種情況下,可以使用 pip install qwen-vl-utils
,它將回退到使用 torchvision 進行視頻處理。不過,仍然可以從源代碼安裝 decord,以便在加載視頻時使用 decord。
使用 🤗 Transformers 進行對話
以下是一個使用 transformers
和 qwen_vl_utils
進行對話的代碼示例:
from transformers import Qwen2_5_VLForConditionalGeneration, AutoTokenizer, AutoProcessor
from qwen_vl_utils import process_vision_info
# 默認:將模型加載到可用設備上
model = Qwen2_5_VLForConditionalGeneration.from_pretrained(
"Qwen/Qwen2.5-VL-7B-Instruct", torch_dtype="auto", device_map="auto"
)
# 建議啟用 flash_attention_2 以獲得更好的加速和內存節省效果,特別是在多圖像和視頻場景中
# model = Qwen2_5_VLForConditionalGeneration.from_pretrained(
# "Qwen/Qwen2.5-VL-7B-Instruct",
# torch_dtype=torch.bfloat16,
# attn_implementation="flash_attention_2",
# device_map="auto",
# )
# 默認處理器
processor = AutoProcessor.from_pretrained("Qwen/Qwen2.5-VL-7B-Instruct")
# 模型中每張圖像的視覺令牌數量默認範圍是 4 - 16384
# 可以根據需要設置 min_pixels 和 max_pixels,例如令牌範圍為 256 - 1280,以平衡性能和成本
# min_pixels = 256*28*28
# max_pixels = 1280*28*28
# processor = AutoProcessor.from_pretrained("Qwen/Qwen2.5-VL-7B-Instruct", min_pixels=min_pixels, max_pixels=max_pixels)
messages = [
{
"role": "user",
"content": [
{
"type": "image",
"image": "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg",
},
{"type": "text", "text": "Describe this image."},
],
}
]
# 推理準備
text = processor.apply_chat_template(
messages, tokenize=False, add_generation_prompt=True
)
image_inputs, video_inputs = process_vision_info(messages)
inputs = processor(
text=[text],
images=image_inputs,
videos=video_inputs,
padding=True,
return_tensors="pt",
)
inputs = inputs.to("cuda")
# 推理:生成輸出
generated_ids = model.generate(**inputs, max_new_tokens=128)
generated_ids_trimmed = [
out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
output_text = processor.batch_decode(
generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text)
多圖像推理
# 包含多個圖像和文本查詢的消息
messages = [
{
"role": "user",
"content": [
{"type": "image", "image": "file:///path/to/image1.jpg"},
{"type": "image", "image": "file:///path/to/image2.jpg"},
{"type": "text", "text": "Identify the similarities between these images."},
],
}
]
# 推理準備
text = processor.apply_chat_template(
messages, tokenize=False, add_generation_prompt=True
)
image_inputs, video_inputs = process_vision_info(messages)
inputs = processor(
text=[text],
images=image_inputs,
videos=video_inputs,
padding=True,
return_tensors="pt",
)
inputs = inputs.to("cuda")
# 推理
generated_ids = model.generate(**inputs, max_new_tokens=128)
generated_ids_trimmed = [
out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
output_text = processor.batch_decode(
generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text)
視頻推理
# 包含圖像列表作為視頻和文本查詢的消息
messages = [
{
"role": "user",
"content": [
{
"type": "video",
"video": [
"file:///path/to/frame1.jpg",
"file:///path/to/frame2.jpg",
"file:///path/to/frame3.jpg",
"file:///path/to/frame4.jpg",
],
},
{"type": "text", "text": "Describe this video."},
],
}
]
# 包含本地視頻路徑和文本查詢的消息
messages = [
{
"role": "user",
"content": [
{
"type": "video",
"video": "file:///path/to/video1.mp4",
"max_pixels": 360 * 420,
"fps": 1.0,
},
{"type": "text", "text": "Describe this video."},
],
}
]
# 包含視頻 URL 和文本查詢的消息
messages = [
{
"role": "user",
"content": [
{
"type": "video",
"video": "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen2-VL/space_woaudio.mp4",
},
{"type": "text", "text": "Describe this video."},
],
}
]
# 在 Qwen 2.5 VL 中,幀率信息也會輸入到模型中以與絕對時間對齊
# 推理準備
text = processor.apply_chat_template(
messages, tokenize=False, add_generation_prompt=True
)
image_inputs, video_inputs, video_kwargs = process_vision_info(messages, return_video_kwargs=True)
inputs = processor(
text=[text],
images=image_inputs,
videos=video_inputs,
fps=fps,
padding=True,
return_tensors="pt",
**video_kwargs,
)
inputs = inputs.to("cuda")
# 推理
generated_ids = model.generate(**inputs, max_new_tokens=128)
generated_ids_trimmed = [
out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
output_text = processor.batch_decode(
generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text)
視頻 URL 兼容性在很大程度上取決於第三方庫版本。詳情見下表。如果不想使用默認的後端,可以通過 FORCE_QWENVL_VIDEO_READER=torchvision
或 FORCE_QWENVL_VIDEO_READER=decord
更改後端。
後端 | HTTP | HTTPS |
---|---|---|
torchvision >= 0.19.0 | ✅ | ✅ |
torchvision < 0.19.0 | ❌ | ❌ |
decord | ✅ | ❌ |
批量推理
# 批量推理的示例消息
messages1 = [
{
"role": "user",
"content": [
{"type": "image", "image": "file:///path/to/image1.jpg"},
{"type": "image", "image": "file:///path/to/image2.jpg"},
{"type": "text", "text": "What are the common elements in these pictures?"},
],
}
]
messages2 = [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Who are you?"},
]
# 合併消息進行批量處理
messages = [messages1, messages2]
# 批量推理準備
texts = [
processor.apply_chat_template(msg, tokenize=False, add_generation_prompt=True)
for msg in messages
]
image_inputs, video_inputs = process_vision_info(messages)
inputs = processor(
text=texts,
images=image_inputs,
videos=video_inputs,
padding=True,
return_tensors="pt",
)
inputs = inputs.to("cuda")
# 批量推理
generated_ids = model.generate(**inputs, max_new_tokens=128)
generated_ids_trimmed = [
out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
output_texts = processor.batch_decode(
generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_texts)
使用 🤖 ModelScope
強烈建議用戶(特別是中國大陸的用戶)使用 ModelScope。snapshot_download
可以幫助解決下載檢查點的問題。
✨ 主要特性
視覺理解能力
Qwen2.5-VL 不僅擅長識別常見物體(如花鳥魚蟲),還能高度有效地分析圖像中的文本、圖表、圖標、圖形和佈局。
智能代理能力
Qwen2.5-VL 可直接作為視覺代理,能夠進行推理並動態調用工具,具備計算機和手機使用能力。
長視頻理解和事件捕捉能力
Qwen2.5-VL 可以理解超過 1 小時的視頻,並且此次新增了通過定位相關視頻片段來捕捉事件的能力。
多格式視覺定位能力
Qwen2.5-VL 可以通過生成邊界框或點來準確地在圖像中定位物體,並能為座標和屬性提供穩定的 JSON 輸出。
結構化輸出生成能力
對於發票、表單、表格等掃描數據,Qwen2.5-VL 支持生成其內容的結構化輸出,有利於金融、商業等領域的應用。
📚 詳細文檔
模型架構更新
用於視頻理解的動態分辨率和幀率訓練
通過採用動態 FPS 採樣將動態分辨率擴展到時間維度,使模型能夠理解不同採樣率的視頻。相應地,在時間維度上使用 ID 和絕對時間對齊更新 mRoPE,使模型能夠學習時間序列和速度,最終獲得定位特定時刻的能力。
精簡高效的視覺編碼器
通過在 ViT 中策略性地實現窗口注意力,提高了訓練和推理速度。使用 SwiGLU 和 RMSNorm 進一步優化 ViT 架構,使其與 Qwen2.5 LLM 的結構保持一致。
輸入支持
對於輸入圖像,支持本地文件、Base64 編碼和 URL。對於視頻,目前僅支持本地文件。
# 可以直接在文本中需要的位置插入本地文件路徑、URL 或 Base64 編碼的圖像
## 本地文件路徑
messages = [
{
"role": "user",
"content": [
{"type": "image", "image": "file:///path/to/your/image.jpg"},
{"type": "text", "text": "Describe this image."},
],
}
]
## 圖像 URL
messages = [
{
"role": "user",
"content": [
{"type": "image", "image": "http://path/to/your/image.jpg"},
{"type": "text", "text": "Describe this image."},
],
}
]
## Base64 編碼的圖像
messages = [
{
"role": "user",
"content": [
{"type": "image", "image": "data:image;base64,/9j/..."},
{"type": "text", "text": "Describe this image."},
],
}
]
圖像分辨率優化
模型支持廣泛的分辨率輸入。默認情況下,使用原生分辨率進行輸入,但更高的分辨率可以提高性能,但會增加計算量。用戶可以設置最小和最大像素數以實現最佳配置,例如令牌數量範圍為 256 - 1280,以平衡速度和內存使用。
min_pixels = 256 * 28 * 28
max_pixels = 1280 * 28 * 28
processor = AutoProcessor.from_pretrained(
"Qwen/Qwen2.5-VL-7B-Instruct", min_pixels=min_pixels, max_pixels=max_pixels
)
此外,還提供了兩種對輸入到模型的圖像大小進行細粒度控制的方法:
- 定義 min_pixels 和 max_pixels:圖像將被調整大小以保持其寬高比在 min_pixels 和 max_pixels 範圍內。
- 指定確切尺寸:直接設置
resized_height
和resized_width
。這些值將被四捨五入到最接近的 28 的倍數。
# min_pixels 和 max_pixels
messages = [
{
"role": "user",
"content": [
{
"type": "image",
"image": "file:///path/to/your/image.jpg",
"resized_height": 280,
"resized_width": 420,
},
{"type": "text", "text": "Describe this image."},
],
}
]
# resized_height 和 resized_width
messages = [
{
"role": "user",
"content": [
{
"type": "image",
"image": "file:///path/to/your/image.jpg",
"min_pixels": 50176,
"max_pixels": 50176,
},
{"type": "text", "text": "Describe this image."},
],
}
]
長文本處理
當前的 config.json
設置的上下文長度最大為 32,768 個令牌。為了處理超過 32,768 個令牌的大量輸入,使用了 YaRN 技術來增強模型的長度外推能力,確保在長文本上的最佳性能。
對於支持的框架,可以在 config.json
中添加以下內容以啟用 YaRN:
{
...,
"type": "yarn",
"mrope_section": [
16,
24,
24
],
"factor": 4,
"original_max_position_embeddings": 32768
}
需要注意的是,這種方法對時間和空間定位任務的性能有顯著影響,因此不建議使用。同時,對於長視頻輸入,由於 MRoPE 本身在 ID 方面更節省,因此可以直接將 max_position_embeddings
修改為更大的值,例如 64k。
🔧 技術細節
評估指標
圖像基準測試
基準測試 | InternVL2.5 - 8B | MiniCPM - o 2.6 | GPT - 4o - mini | Qwen2 - VL - 7B | Qwen2.5 - VL - 7B |
---|---|---|---|---|---|
MMMUval | 56 | 50.4 | 60 | 54.1 | 58.6 |
MMMU - Proval | 34.3 | - | 37.6 | 30.5 | 41.0 |
DocVQAtest | 93 | 93 | - | 94.5 | 95.7 |
InfoVQAtest | 77.6 | - | - | 76.5 | 82.6 |
ChartQAtest | 84.8 | - | - | 83.0 | 87.3 |
TextVQAval | 79.1 | 80.1 | - | 84.3 | 84.9 |
OCRBench | 822 | 852 | 785 | 845 | 864 |
CC_OCR | 57.7 | 61.6 | 77.8 | ||
MMStar | 62.8 | 60.7 | 63.9 | ||
MMBench - V1.1 - Entest | 79.4 | 78.0 | 76.0 | 80.7 | 82.6 |
MMT - Benchtest | - | - | - | 63.7 | 63.6 |
MMStar | 61.5 | 57.5 | 54.8 | 60.7 | 63.9 |
MMVetGPT - 4 - Turbo | 54.2 | 60.0 | 66.9 | 62.0 | 67.1 |
HallBenchavg | 45.2 | 48.1 | 46.1 | 50.6 | 52.9 |
MathVistatestmini | 58.3 | 60.6 | 52.4 | 58.2 | 68.2 |
MathVision | - | - | - | 16.3 | 25.07 |
視頻基準測試
基準測試 | Qwen2 - VL - 7B | Qwen2.5 - VL - 7B |
---|---|---|
MVBench | 67.0 | 69.6 |
PerceptionTesttest | 66.9 | 70.5 |
Video - MMEwo/w subs | 63.3/69.0 | 65.1/71.6 |
LVBench | 45.3 | |
LongVideoBench | 54.7 | |
MMBench - Video | 1.44 | 1.79 |
TempCompass | 71.7 | |
MLVU | 70.2 | |
CharadesSTA/mIoU | 43.6 |
代理基準測試
基準測試 | Qwen2.5 - VL - 7B |
---|---|
ScreenSpot | 84.7 |
ScreenSpot Pro | 29.0 |
AITZ_EM | 81.9 |
Android Control High_EM | 60.1 |
Android Control Low_EM | 93.7 |
AndroidWorld_SR | 25.5 |
MobileMiniWob++_SR | 91.4 |
📄 許可證
本項目採用 Apache - 2.0 許可證。
📖 引用
如果您覺得我們的工作有幫助,請引用以下內容:
@misc{qwen2.5-VL,
title = {Qwen2.5-VL},
url = {https://qwenlm.github.io/blog/qwen2.5-vl/},
author = {Qwen Team},
month = {January},
year = {2025}
}
@article{Qwen2VL,
title={Qwen2-VL: Enhancing Vision-Language Model's Perception of the World at Any Resolution},
author={Wang, Peng and Bai, Shuai and Tan, Sinan and Wang, Shijie and Fan, Zhihao and Bai, Jinze and Chen, Keqin and Liu, Xuejing and Wang, Jialin and Ge, Wenbin and Fan, Yang and Dang, Kai and Du, Mengfei and Ren, Xuancheng and Men, Rui and Liu, Dayiheng and Zhou, Chang and Zhou, Jingren and Lin, Junyang},
journal={arXiv preprint arXiv:2409.12191},
year={2024}
}
@article{Qwen-VL,
title={Qwen-VL: A Versatile Vision-Language Model for Understanding, Localization, Text Reading, and Beyond},
author={Bai, Jinze and Bai, Shuai and Yang, Shusheng and Wang, Shijie and Tan, Sinan and Wang, Peng and Lin, Junyang and Zhou, Chang and Zhou, Jingren},
journal={arXiv preprint arXiv:2308.12966},
year={2023}
}








