🚀 MobileNetV2與DeepLabV3+
本項目是在PASCAL VOC數據集上以513x513分辨率預訓練的MobileNet V2模型。該模型由Mark Sandler、Andrew Howard、Menglong Zhu、Andrey Zhmoginov和Liang-Chieh Chen在論文 MobileNetV2: Inverted Residuals and Linear Bottlenecks 中提出,並首次在 此倉庫 發佈。
聲明:發佈MobileNet V2的團隊並未為此模型撰寫模型卡片,本模型卡片由Hugging Face團隊編寫。
🚀 快速開始
你可以使用此原始模型進行語義分割。你可以在 模型中心 查找針對你感興趣的任務進行微調的版本。
✨ 主要特性
- MobileNets是小型、低延遲、低功耗的模型,可根據各種用例的資源限制進行參數調整。它可以像Inception等其他流行的大規模模型一樣,用於分類、檢測、嵌入和分割等任務,並且能夠在移動設備上高效運行。
- 本倉庫中的模型在MobileNetV2骨幹網絡上添加了 DeepLabV3+ 頭部,用於語義分割。
📚 詳細文檔
模型描述
根據 原始README:
MobileNets是小型、低延遲、低功耗的模型,其參數可根據各種用例的資源限制進行調整。它們可以像其他流行的大規模模型(如Inception)一樣,用於分類、檢測、嵌入和分割等任務。MobileNets可以在移動設備上高效運行 [...] MobileNets在延遲、模型大小和準確性之間進行權衡,並且與文獻中的流行模型相比具有優勢。
本倉庫中的模型在MobileNetV2骨幹網絡上添加了 DeepLabV3+ 頭部,用於語義分割。
使用方法
以下是如何使用此模型的示例代碼:
from transformers import AutoImageProcessor, AutoModelForSemanticSegmentation
from PIL import Image
import requests
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
preprocessor = AutoImageProcessor.from_pretrained("google/deeplabv3_mobilenet_v2_1.0_513")
model = AutoModelForSemanticSegmentation.from_pretrained("google/deeplabv3_mobilenet_v2_1.0_513")
inputs = preprocessor(images=image, return_tensors="pt")
outputs = model(**inputs)
predicted_mask = preprocessor.post_process_semantic_segmentation(outputs)
目前,特徵提取器和模型均支持PyTorch。
BibTeX引用和引用信息
@inproceedings{deeplabv3plus2018,
title={Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation},
author={Liang-Chieh Chen and Yukun Zhu and George Papandreou and Florian Schroff and Hartwig Adam},
booktitle={ECCV},
year={2018}
}
📄 許可證
其他許可證
屬性 |
詳情 |
模型類型 |
用於語義分割的預訓練模型 |
訓練數據 |
PASCAL VOC |
標籤 |
視覺、圖像分割 |