🚀 MobileNetV2 with DeepLabV3+
本项目是在PASCAL VOC数据集上以513x513分辨率预训练的MobileNet V2模型。它由Mark Sandler、Andrew Howard、Menglong Zhu、Andrey Zhmoginov和Liang - Chieh Chen在论文MobileNetV2: Inverted Residuals and Linear Bottlenecks中提出,并首次在该仓库发布。此模型卡由Hugging Face团队编写,因为发布MobileNet V2的团队并未为该模型撰写模型卡。
✨ 主要特性
- 轻量级设计:MobileNet是小型、低延迟、低功耗的模型,可根据不同用例的资源限制进行参数配置。
- 多功能应用:可用于分类、检测、嵌入和分割等任务,类似于其他流行的大规模模型(如Inception)。
- 高效运行:能够在移动设备上高效运行,在延迟、模型大小和准确性之间进行权衡,与文献中的流行模型相比具有优势。
- 语义分割能力:本仓库中的模型在MobileNetV2骨干网络上添加了DeepLabV3+头部,用于语义分割任务。
📚 详细文档
模型描述
引用自原始README:
MobileNet是小型、低延迟、低功耗的模型,其参数化设计旨在满足各种用例的资源限制。它们可以像其他流行的大规模模型(如Inception)一样,用于构建分类、检测、嵌入和分割等任务。MobileNet可以在移动设备上高效运行,在延迟、大小和准确性之间进行权衡,并且与文献中的流行模型相比具有优势。
本仓库中的模型在MobileNetV2骨干网络上添加了DeepLabV3+头部,用于语义分割。
预期用途和限制
你可以使用该原始模型进行语义分割。你可以在模型中心查找针对你感兴趣的任务进行微调的版本。
💻 使用示例
基础用法
from transformers import MobileNetV2FeatureExtractor, MobileNetV2ForSemanticSegmentation
from PIL import Image
import requests
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
feature_extractor = MobileNetV2FeatureExtractor.from_pretrained("Matthijs/deeplabv3_mobilenet_v2_1.0_513")
model = MobileNetV2ForSemanticSegmentation.from_pretrained("Matthijs/deeplabv3_mobilenet_v2_1.0_513")
inputs = feature_extractor(images=image, return_tensors="pt")
outputs = model(**inputs)
logits = outputs.logits
predicted_mask = logits.argmax(1).squeeze(0)
目前,特征提取器和模型都支持PyTorch。
BibTeX引用
@inproceedings{deeplabv3plus2018,
title={Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation},
author={Liang-Chieh Chen and Yukun Zhu and George Papandreou and Florian Schroff and Hartwig Adam},
booktitle={ECCV},
year={2018}
}
📄 许可证
许可证类型:other
信息表格
属性 |
详情 |
模型类型 |
用于语义分割的MobileNetV2+DeepLabV3+模型 |
训练数据 |
PASCAL VOC |
标签 |
视觉、图像分割 |
示例图片 |
Cat |