🚀 视频掩码2Former(Video Mask2Former)
Video Mask2Former是在YouTubeVIS - 2019实例分割数据集上训练的模型(微小版本,采用Swin骨干网络),可有效解决视频实例分割问题。
🚀 快速开始
Video Mask2Former模型在YouTubeVIS - 2019实例分割数据集上进行训练(微小版本,采用Swin骨干网络)。该模型在论文用于视频实例分割的Mask2Former中被提出,并首次在此仓库发布。Video Mask2Former是原用于通用图像分割的掩码注意力掩码变换器(Masked - attention Mask Transformer for Universal Image Segmentation)论文中Mask2Former模型的扩展。
声明:发布Mask2Former的团队并未为此模型撰写模型卡片,此模型卡片由Hugging Face团队编写。
✨ 主要特性
模型描述
Mask2Former使用相同的范式来处理实例、语义和全景分割:通过预测一组掩码和相应的标签。因此,所有这3项任务都被视为实例分割。与之前的最优模型MaskFormer相比,Mask2Former在性能和效率方面都更胜一筹,具体体现在:
- 用更先进的多尺度可变形注意力变换器取代像素解码器;
- 采用带掩码注意力的变换器解码器,在不引入额外计算的情况下提升性能;
- 通过在子采样点而不是整个掩码上计算损失来提高训练效率。
在论文用于视频实例分割的Mask2Former中,作者表明Mask2Former在不修改架构、损失函数甚至训练流程的情况下,在视频实例分割任务上也取得了最优性能。

预期用途与局限性
你可以使用此特定检查点进行实例分割。请查看[模型中心](https://huggingface.co/models?search=video - mask2former),以查找此模型其他可能令你感兴趣的微调版本。
💻 使用示例
基础用法
import torch
import torchvision
from huggingface_hub import hf_hub_download
from transformers import AutoImageProcessor, Mask2FormerForUniversalSegmentation
processor = AutoImageProcessor.from_pretrained("facebook/video-mask2former-swin-tiny-youtubevis-2019-instance")
model = Mask2FormerForUniversalSegmentation.from_pretrained("facebook/video-mask2former-swin-tiny-youtubevis-2019-instance")
file_path = hf_hub_download(repo_id="shivi/video-demo", filename="cars.mp4", repo_type="dataset")
video = torchvision.io.read_video(file_path)[0]
video_frames = [image_processor(images=frame, return_tensors="pt").pixel_values for frame in video]
video_input = torch.cat(video_frames)
with torch.no_grad():
outputs = model(**video_input)
class_queries_logits = outputs.class_queries_logits
masks_queries_logits = outputs.masks_queries_logits
result = image_processor.post_process_video_instance_segmentation(outputs, target_sizes=[tuple(video.shape[1:3])])[0]
predicted_video_instance_map = result["segmentation"]
如需更多代码示例,请参考文档。
📄 许可证
本模型采用MIT许可证。
属性 |
详情 |
模型类型 |
视频实例分割模型 |
训练数据 |
YouTubeVIS - 2019 |
标签 |
视觉、图像分割 |