Upernet Swin Small
Swin Transformer小型アーキテクチャをベースにしたUPerNetセマンティックセグメンテーションモデル、ADE20Kなどのシーン解析タスクに適しています
Downloads 100
Release Time : 4/12/2025
Model Overview
このモデルはUPerNetアーキテクチャとSwin-Smallをエンコーダーとして組み合わせ、高精度なセマンティックセグメンテーションタスクに特化しており、特にシーン解析や画像セグメンテーションアプリケーションに適しています
Model Features
Swin Transformerバックボーンネットワーク
先進的なSwin-Smallをエンコーダーとして採用し、階層型ウィンドウアテンションメカニズムを組み合わせることで、マルチスケール特徴を効果的に捕捉します
UPerNetデコードアーキテクチャ
統一知覚解析ネットワーク(UPerNet)をデコーダーとして使用し、効率的なマルチスケール特徴融合を実現します
事前学習サポート
すぐに使える事前学習済み重みを提供し、HuggingFace Hubを通じて迅速にロード可能です
ADE20K最適化
ADE20Kシーン解析データセットに特化して最適化されており、150クラスのセマンティックセグメンテーションをサポートします
Model Capabilities
画像セマンティックセグメンテーション
シーン解析
ピクセルレベル分類
マルチスケール特徴抽出
Use Cases
コンピュータビジョン
シーン理解
複雑なシーン内の様々な物体をピクセルレベルで識別・分割します
150クラスの物体を含む正確なセグメンテーションマスクを出力可能
自動運転知覚
道路シーン内の様々な要素(車両、歩行者、道路など)を解析します
リモートセンシング画像分析
衛星/航空画像内の地物を分類・分割します
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98