🚀 Segformerモデルカード
Segformerは、画像セグメンテーションタスクに特化したモデルです。このREADMEでは、学習済みモデルの読み込み方法、モデルの初期化パラメータ、使用したデータセットなどについて説明します。
🚀 クイックスタート
学習済みモデルの読み込み

- 必要なライブラリをインストールします。
pip install -U segmentation_models_pytorch albumentations
- 推論を実行します。
import torch
import requests
import numpy as np
import albumentations as A
import segmentation_models_pytorch as smp
from PIL import Image
device = "cuda" if torch.cuda.is_available() else "cpu"
checkpoint = "smp-hub/segformer-b5-1024x1024-city-160k"
model = smp.from_pretrained(checkpoint).eval().to(device)
preprocessing = A.Compose.from_pretrained(checkpoint)
url = "https://huggingface.co/datasets/hf-internal-testing/fixtures_ade20k/resolve/main/ADE_val_00000001.jpg"
image = Image.open(requests.get(url, stream=True).raw)
np_image = np.array(image)
normalized_image = preprocessing(image=np_image)["image"]
input_tensor = torch.as_tensor(normalized_image)
input_tensor = input_tensor.permute(2, 0, 1).unsqueeze(0)
input_tensor = input_tensor.to(device)
with torch.no_grad():
output_mask = model(input_tensor)
mask = torch.nn.functional.interpolate(
output_mask, size=(image.height, image.width), mode="bilinear", align_corners=False
)
mask = mask.argmax(1).cpu().numpy()
✨ 主な機能
- 画像セグメンテーションタスクに適用可能
- 事前学習済みモデルを使用した簡単な推論が可能
📦 インストール
pip install -U segmentation_models_pytorch albumentations
💻 使用例
基本的な使用法
import torch
import requests
import numpy as np
import albumentations as A
import segmentation_models_pytorch as smp
from PIL import Image
device = "cuda" if torch.cuda.is_available() else "cpu"
checkpoint = "smp-hub/segformer-b5-1024x1024-city-160k"
model = smp.from_pretrained(checkpoint).eval().to(device)
preprocessing = A.Compose.from_pretrained(checkpoint)
url = "https://huggingface.co/datasets/hf-internal-testing/fixtures_ade20k/resolve/main/ADE_val_00000001.jpg"
image = Image.open(requests.get(url, stream=True).raw)
np_image = np.array(image)
normalized_image = preprocessing(image=np_image)["image"]
input_tensor = torch.as_tensor(normalized_image)
input_tensor = input_tensor.permute(2, 0, 1).unsqueeze(0)
input_tensor = input_tensor.to(device)
with torch.no_grad():
output_mask = model(input_tensor)
mask = torch.nn.functional.interpolate(
output_mask, size=(image.height, image.width), mode="bilinear", align_corners=False
)
mask = mask.argmax(1).cpu().numpy()
📚 ドキュメント
モデル初期化パラメータ
model_init_params = {
"encoder_name": "mit_b5",
"encoder_depth": 5,
"encoder_weights": None,
"decoder_segmentation_channels": 768,
"in_channels": 3,
"classes": 19,
"activation": None,
"aux_params": None
}
データセット
データセット名: Cityscapes
その他の情報
- ライブラリ: https://github.com/qubvel/segmentation_models.pytorch
- ドキュメント: https://smp.readthedocs.io/en/latest/
- ライセンス: https://github.com/NVlabs/SegFormer/blob/master/LICENSE
このモデルは、PytorchModelHubMixinを使用してハブにアップロードされています。
📄 ライセンス
このモデルのライセンスについては、こちらを参照してください。