Upernet Swin Small
Swin Transformer小型アーキテクチャをベースにしたUPerNetセマンティックセグメンテーションモデル、ADE20Kなどのシーン解析タスクに適しています
ダウンロード数 100
リリース時間 : 4/12/2025
モデル概要
このモデルはUPerNetアーキテクチャとSwin-Smallをエンコーダーとして組み合わせ、高精度なセマンティックセグメンテーションタスクに特化しており、特にシーン解析や画像セグメンテーションアプリケーションに適しています
モデル特徴
Swin Transformerバックボーンネットワーク
先進的なSwin-Smallをエンコーダーとして採用し、階層型ウィンドウアテンションメカニズムを組み合わせることで、マルチスケール特徴を効果的に捕捉します
UPerNetデコードアーキテクチャ
統一知覚解析ネットワーク(UPerNet)をデコーダーとして使用し、効率的なマルチスケール特徴融合を実現します
事前学習サポート
すぐに使える事前学習済み重みを提供し、HuggingFace Hubを通じて迅速にロード可能です
ADE20K最適化
ADE20Kシーン解析データセットに特化して最適化されており、150クラスのセマンティックセグメンテーションをサポートします
モデル能力
画像セマンティックセグメンテーション
シーン解析
ピクセルレベル分類
マルチスケール特徴抽出
使用事例
コンピュータビジョン
シーン理解
複雑なシーン内の様々な物体をピクセルレベルで識別・分割します
150クラスの物体を含む正確なセグメンテーションマスクを出力可能
自動運転知覚
道路シーン内の様々な要素(車両、歩行者、道路など)を解析します
リモートセンシング画像分析
衛星/航空画像内の地物を分類・分割します
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98