🚀 MobileNetV2与DeepLabV3+
本项目是在PASCAL VOC数据集上以513x513分辨率预训练的MobileNet V2模型。该模型由Mark Sandler、Andrew Howard、Menglong Zhu、Andrey Zhmoginov和Liang-Chieh Chen在论文 MobileNetV2: Inverted Residuals and Linear Bottlenecks 中提出,并首次在 此仓库 发布。
声明:发布MobileNet V2的团队并未为此模型撰写模型卡片,本模型卡片由Hugging Face团队编写。
🚀 快速开始
你可以使用此原始模型进行语义分割。你可以在 模型中心 查找针对你感兴趣的任务进行微调的版本。
✨ 主要特性
- MobileNets是小型、低延迟、低功耗的模型,可根据各种用例的资源限制进行参数调整。它可以像Inception等其他流行的大规模模型一样,用于分类、检测、嵌入和分割等任务,并且能够在移动设备上高效运行。
- 本仓库中的模型在MobileNetV2骨干网络上添加了 DeepLabV3+ 头部,用于语义分割。
📚 详细文档
模型描述
根据 原始README:
MobileNets是小型、低延迟、低功耗的模型,其参数可根据各种用例的资源限制进行调整。它们可以像其他流行的大规模模型(如Inception)一样,用于分类、检测、嵌入和分割等任务。MobileNets可以在移动设备上高效运行 [...] MobileNets在延迟、模型大小和准确性之间进行权衡,并且与文献中的流行模型相比具有优势。
本仓库中的模型在MobileNetV2骨干网络上添加了 DeepLabV3+ 头部,用于语义分割。
使用方法
以下是如何使用此模型的示例代码:
from transformers import AutoImageProcessor, AutoModelForSemanticSegmentation
from PIL import Image
import requests
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
preprocessor = AutoImageProcessor.from_pretrained("google/deeplabv3_mobilenet_v2_1.0_513")
model = AutoModelForSemanticSegmentation.from_pretrained("google/deeplabv3_mobilenet_v2_1.0_513")
inputs = preprocessor(images=image, return_tensors="pt")
outputs = model(**inputs)
predicted_mask = preprocessor.post_process_semantic_segmentation(outputs)
目前,特征提取器和模型均支持PyTorch。
BibTeX引用和引用信息
@inproceedings{deeplabv3plus2018,
title={Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation},
author={Liang-Chieh Chen and Yukun Zhu and George Papandreou and Florian Schroff and Hartwig Adam},
booktitle={ECCV},
year={2018}
}
📄 许可证
其他许可证
属性 |
详情 |
模型类型 |
用于语义分割的预训练模型 |
训练数据 |
PASCAL VOC |
标签 |
视觉、图像分割 |