🚀 MobileNet V2
解像度224x224のImageNet-1kで事前学習されたMobileNet V2モデルです。画像分類タスクに利用できます。
🚀 クイックスタート
MobileNet V2モデルは、解像度224x224のImageNet-1kで事前学習されています。このモデルは、Mark Sandler、Andrew Howard、Menglong Zhu、Andrey Zhmoginov、Liang-Chieh Chenによる MobileNetV2: Inverted Residuals and Linear Bottlenecks で紹介され、最初は このリポジトリ で公開されました。
なお、MobileNet V2をリリースしたチームはこのモデルのモデルカードを作成していないため、このモデルカードはHugging Faceチームによって作成されています。
✨ 主な機能
モデルの説明
元のREADME からの引用:
MobileNetは、さまざまなユースケースのリソース制約を満たすためにパラメータ化された、小型で低レイテンシー、低電力のモデルです。他の人気の大規模モデル(Inceptionなど)と同様に、分類、検出、埋め込み、セグメンテーションなどのタスクに利用できます。MobileNetはモバイルデバイスでも効率的に実行できます。MobileNetは、レイテンシー、サイズ、精度のトレードオフを考慮しており、文献上の人気モデルと比較しても良好な性能を示します。
チェックポイントは mobilenet_v2_depth_size という名前で付けられています。例えば mobilenet_v2_1.0_224 では、1.0 は深度乗数、224 はモデルが学習された入力画像の解像度を表します。
想定される用途と制限
この生モデルは画像分類に使用できます。興味のあるタスクに関するファインチューニング済みのバージョンを探すには、モデルハブ を参照してください。
💻 使用例
基本的な使用法
以下は、このモデルを使用してCOCO 2017データセットの画像を1,000のImageNetクラスのいずれかに分類する方法です。
from transformers import MobileNetV2FeatureExtractor, MobileNetV2ForImageClassification
from PIL import Image
import requests
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
feature_extractor = MobileNetV2FeatureExtractor.from_pretrained("Matthijs/mobilenet_v2_1.0_224")
model = MobileNetV2ForImageClassification.from_pretrained("Matthijs/mobilenet_v2_1.0_224")
inputs = feature_extractor(images=image, return_tensors="pt")
outputs = model(**inputs)
logits = outputs.logits
predicted_class_idx = logits.argmax(-1).item()
print("Predicted class:", model.config.id2label[predicted_class_idx])
⚠️ 重要提示
このモデルは実際には1001のクラスを予測します。これは、ImageNetの1000クラスに加えて、追加の「背景」クラス(インデックス0)を含んでいます。
💡 使用建议
現在、特徴抽出器とモデルの両方がPyTorchをサポートしています。
BibTeX引用
@inproceedings{mobilenetv22018,
title={MobileNetV2: Inverted Residuals and Linear Bottlenecks},
author={Mark Sandler and Andrew Howard and Menglong Zhu and Andrey Zhmoginov and Liang-Chieh Chen},
booktitle={CVPR},
year={2018}
}
📄 ライセンス
ライセンスはOtherです。
モデル情報
属性 |
详情 |
モデルタイプ |
画像分類モデル |
学習データ |
ImageNet-1k |
ウィジェット例