Upernet Swin Large
MIT
Swin Transformerアーキテクチャに基づくUPerNetセマンティックセグメンテーションモデル、高精度な画像分割タスクに適しています
画像セグメンテーション
U
smp-hub
110
0
Upernet Swin Small
MIT
Swin Transformer小型アーキテクチャをベースにしたUPerNetセマンティックセグメンテーションモデル、ADE20Kなどのシーン解析タスクに適しています
画像セグメンテーション
Safetensors
U
smp-hub
100
0
Upernet Swin Tiny
MIT
UPerNetはConvNeXt-Tinyアーキテクチャをベースにしたセマンティックセグメンテーションモデルで、画像分割タスクに適しています。
画像セグメンテーション
Safetensors
U
smp-hub
191
0
Upernet Convnext Large
MIT
ConvNeXt-LargeエンコーダーをベースにしたUPerNetセマンティックセグメンテーションモデル、ADE20Kなどのシーン解析タスクに適しています
画像セグメンテーション
U
smp-hub
54
0
Upernet Convnext Base
MIT
ConvNeXtアーキテクチャに基づくUPerNet画像セグメンテーションモデル、セマンティックセグメンテーションタスクに適応
画像セグメンテーション
U
smp-hub
57
0
Upernet Convnext Small
MIT
UPerNetはConvNeXt-Smallアーキテクチャに基づくセマンティックセグメンテーションモデルで、画像分割タスクに適しています。
画像セグメンテーション
U
smp-hub
70
0
Upernet Convnext Tiny
MIT
ConvNeXt-TinyエンコーダーをベースにしたUPerNet画像セグメンテーションモデルで、セマンティックセグメンテーションタスクに適しています
画像セグメンテーション
U
smp-hub
149
0
Dpt Tu Test Vit
MIT
PyTorchベースの画像セグメンテーションモデルライブラリ、様々なエンコーダ-デコーダアーキテクチャのセマンティックセグメンテーションタスクをサポート
画像セグメンテーション
Safetensors
D
smp-test-models
228
0
Route Background Semantic X2
このモデルはLogiroad/route_background_semantic_x2をLogiroad/route_background_semanticデータセットでファインチューニングした画像分割モデルで、主に道路背景のセマンティックセグメンテーションタスクに使用されます。
画像セグメンテーション
Transformers

R
Logiroad
78
0
DPT
MIT
PyTorchベースの画像セグメンテーションモデル、Transformerアーキテクチャを使用した高密度予測タスク
画像セグメンテーション
Safetensors
D
vedantdalimkar
92
0
Upernet Tu Resnet18
MIT
UPerNetはPyTorchで実装された画像セグメンテーションモデルで、セマンティックセグメンテーションタスクをサポートします。
画像セグメンテーション
U
smp-test-models
267
0
Pan Tu Resnet18
MIT
PANはPyTorchで実装された画像分割モデルで、ピラミッドアテンション機構により特徴抽出能力を強化
画像セグメンテーション
P
smp-test-models
211
0
Deeplabv3 Tu Resnet18
MIT
DeepLabV3はPyTorchで実装されたセマンティックセグメンテーションモデルで、画像分割タスクに適しています。
画像セグメンテーション
D
smp-test-models
210
0
Pspnet Tu Resnet18
MIT
PSPNetはセマンティックセグメンテーションのための深層学習モデルで、ピラミッドプーリングモジュールを使用してマルチスケールのコンテキスト情報を取得します
画像セグメンテーション
Safetensors
P
smp-test-models
213
0
Linknet Tu Resnet18
MIT
LinknetはPyTorchで実装された画像セグメンテーションモデルで、セマンティックセグメンテーションタスクに適しています。
画像セグメンテーション
Safetensors
L
smp-test-models
214
0
Manet Tu Resnet18
MIT
PyTorchベースのセマンティックセグメンテーションモデルで、マルチスケールアテンション機構を採用し、画像分割タスクに適しています
画像セグメンテーション
M
smp-test-models
216
0
Unetplusplus Tu Resnet18
MIT
PyTorchベースのセマンティックセグメンテーションモデルで、改良されたUNet++アーキテクチャを採用し、画像セグメンテーションタスクに適しています。
画像セグメンテーション
U
smp-test-models
215
0
Unet Tu Resnet18
MIT
PyTorchで実装されたUnet画像セグメンテーションモデル、複数のエンコーダアーキテクチャをサポート
画像セグメンテーション
Safetensors
U
smp-test-models
219
0
Segformer B5 640x640 Ade 160k
その他
PyTorchベースのSegformer画像セグメンテーションモデル、ADE20Kデータセットのセマンティックセグメンテーションタスクに適応
画像セグメンテーション
S
smp-hub
274
0
Segformer B3 1024x1024 City 160k
その他
Segformerアーキテクチャに基づくセマンティックセグメンテーションモデルで、Cityscapesデータセット向けに最適化されています
画像セグメンテーション
S
smp-hub
14
0
Segformer B0 1024x1024 City 160k
その他
Segformerアーキテクチャに基づく軽量セマンティックセグメンテーションモデル、Cityscapesデータセットで事前学習済み
画像セグメンテーション
S
smp-hub
269
1
Segformer B2 1024x1024 City 160k
その他
Segformerアーキテクチャに基づくセマンティックセグメンテーションモデルで、Cityscapesデータセット向けに最適化されています
画像セグメンテーション
Safetensors
S
smp-hub
651
0
Segformer B1 512x512 Ade 160k
その他
PyTorchベースのSegformerモデル、セマンティックセグメンテーションタスク用、ADE20Kデータセットで事前学習済み
画像セグメンテーション
S
smp-hub
20
0
Water Meter Segmentation
MIT
PyTorchベースのUnet画像セグメンテーションモデル、複数のエンコーダアーキテクチャをサポート
画像セグメンテーション
W
nitidpong
16
1
Aerial Drone Image Segmentation
その他
nvidia/mit-b0をファインチューニングした空撮ドローン画像セグメンテーションモデルで、空撮画像のマルチクラスセグメンテーションタスクに適しています。
画像セグメンテーション
Transformers

A
Thalirajesh
76
11
Roadsense High Definition Street Segmentation
その他
SegFormerアーキテクチャに基づく軽量画像分割モデルで、歩道シーンに特化してファインチューニングされています
画像セグメンテーション
Transformers

R
iammartian0
63
1
Mobilevitv2 1.0 Voc Deeplabv3
その他
MobileViTv2アーキテクチャとDeepLabV3ヘッドを組み合わせたセマンティックセグメンテーションモデルで、PASCAL VOCデータセットで512x512解像度で事前学習済み
画像セグメンテーション
Transformers

M
apple
29
1
Mobilevitv2 1.0 Voc Deeplabv3
その他
MobileViTv2アーキテクチャに基づくセマンティックセグメンテーションモデルで、PASCAL VOCデータセットで事前学習済み、512x512解像度の画像処理に対応
画像セグメンテーション
Transformers

M
shehan97
1,075
0
Upernet Swin Base
MIT
UperNetはセマンティックセグメンテーションのためのフレームワークで、Swin Transformerをバックボーンネットワークとして採用し、効率的にピクセルレベルのセマンティックアノテーションを行うことができます。
画像セグメンテーション
Transformers 英語

U
openmmlab
700
2
Upernet Swin Small
MIT
UperNetはセマンティックセグメンテーションのためのフレームワークで、Swin Transformerをバックボーンネットワークとして採用し、ピクセルレベルのセマンティックラベル予測を実現できます。
画像セグメンテーション
Transformers 英語

U
openmmlab
1,467
5
Upernet Swin Tiny
MIT
UperNetはセマンティックセグメンテーションのフレームワークで、Swin Transformerをバックボーンネットワークとして採用し、ピクセルレベルのセマンティックラベル予測を実現できます。
画像セグメンテーション
Transformers 英語

U
openmmlab
4,682
3
Upernet Convnext Xlarge
MIT
UperNetはセマンティックセグメンテーションのためのフレームワークで、ConvNeXtをバックボーンネットワークとして採用し、各ピクセルのセマンティックラベルを予測できます。
画像セグメンテーション
Transformers 英語

U
openmmlab
659
2
Upernet Convnext Large
MIT
UperNetは、ピクセルレベルのセマンティックラベル予測のためのConvNeXt大型バックボーンネットワークを組み合わせたセマンティックセグメンテーションフレームワークです。
画像セグメンテーション
Transformers 英語

U
openmmlab
23.09k
0
Upernet Convnext Base
MIT
UperNetはセマンティックセグメンテーションのためのフレームワークで、ConvNeXtをバックボーンネットワークとして採用し、各ピクセルのセマンティックラベルを予測できます。
画像セグメンテーション
Transformers 英語

U
openmmlab
178
1
Upernet Convnext Small
MIT
UperNetはセマンティックセグメンテーションのためのフレームワークで、ConvNeXtをバックボーンネットワークとして採用し、ピクセルレベルのセマンティックラベル予測を実現できます。
画像セグメンテーション
Transformers 英語

U
openmmlab
43.31k
31
Upernet Convnext Tiny
MIT
UperNetはセマンティックセグメンテーションのためのフレームワークで、ConvNeXtをバックボーンとして使用し、各ピクセルにセマンティックラベルを予測できます。
画像セグメンテーション
Transformers 英語

U
openmmlab
3,866
3
Segformer B0 Finetuned Segments Water 2
Apache-2.0
nvidia/mit-b0をベースにimadd/water_datasetデータセットでファインチューニングした画像セグメンテーションモデルで、水域セグメンテーションタスク用
画像セグメンテーション
Transformers

S
imadd
51
1
Segformer Trainer Test
Apache-2.0
nvidia/mit-b0アーキテクチャを基にsegments/sidewalk-semanticデータセットでファインチューニングした画像セグメンテーションモデル
画像セグメンテーション
Transformers

S
nielsr
14
0
Segformer B0 Finetuned Ade 512 512
その他
SegFormerはTransformerアーキテクチャに基づくセマンティックセグメンテーションモデルで、ADE20kデータセットでファインチューニングされており、512x512解像度の画像セグメンテーションタスクに適しています。
画像セグメンテーション
Transformers

S
nvidia
179.04k
156
Segformer B1 Finetuned Cityscapes 1024 1024
その他
このSegFormerモデルは1024x1024解像度でCityScapesデータセットに対してファインチューニングされ、階層型Transformerエンコーダと軽量な全MLPデコーダヘッドアーキテクチャを採用しています。
画像セグメンテーション
Transformers

S
nvidia
20.27k
17
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98