Clipseg Rd64 Refined
Apache-2.0
CLIPSegはテキストと画像プロンプトに基づく画像セグメンテーションモデルで、ゼロショットおよびワンショット画像セグメンテーションタスクをサポートします。
画像セグメンテーション
Transformers

C
CIDAS
10.0M
122
RMBG 1.4
その他
BRIA RMBG v1.4 は、効率的に様々な画像の前景と背景を分離するために設計された先進的な背景除去モデルで、非商用利用に適しています。
画像セグメンテーション
Transformers

R
briaai
874.12k
1,771
RMBG 2.0
その他
BRIA AIが開発した最新の背景除去モデルで、様々な画像の前景と背景を効果的に分離でき、大規模な商業コンテンツ制作シーンに適しています。
画像セグメンテーション
Transformers

R
briaai
703.33k
741
Segformer B2 Clothes
MIT
ATRデータセットでファインチューニングされたSegFormerモデル、服装と人体セグメンテーション用
画像セグメンテーション
Transformers

S
mattmdjaga
666.39k
410
Sam Vit Base
Apache-2.0
SAMは、点やボックスなどの入力プロンプトから高品質なオブジェクトマスクを生成できる視覚モデルで、ゼロショットセグメンテーションタスクをサポートします
画像セグメンテーション
Transformers その他

S
facebook
635.09k
137
Birefnet
MIT
BiRefNetは高解像度二分画像分割のための深層学習モデルで、バイラテラル参照ネットワークにより精密な画像分割を実現します。
画像セグメンテーション
Transformers

B
ZhengPeng7
626.54k
365
Segformer B1 Finetuned Ade 512 512
その他
SegFormerはTransformerベースのセマンティックセグメンテーションモデルで、ADE20Kデータセットでファインチューニングされており、画像分割タスクに適しています。
画像セグメンテーション
Transformers

S
nvidia
560.79k
6
Sam Vit Large
Apache-2.0
SAMは入力プロンプト点やバウンディングボックスから高品質な物体マスクを生成できる視覚モデルで、ゼロショット転移能力を備えています。
画像セグメンテーション
Transformers その他

S
facebook
455.43k
28
Face Parsing
nvidia/mit-b5をファインチューニングしたセマンティックセグメンテーションモデルで、顔解析タスク用
画像セグメンテーション
Transformers 英語

F
jonathandinu
398.59k
157
Sam Vit Huge
Apache-2.0
SAMは入力プロンプトに基づいて高品質なオブジェクトマスクを生成できるビジュアルモデルで、新しいタスクへのゼロショット転移をサポートします
画像セグメンテーション
Transformers その他

S
facebook
324.78k
163
Mask2former Swin Large Cityscapes Semantic
その他
Swinバックボーンネットワークを基にした大規模なMask2Formerモデルで、Cityscapesセマンティックセグメンテーションタスク向けにトレーニングされ、統一アーキテクチャで様々な画像セグメンテーションタスクを処理します。
画像セグメンテーション
Transformers

M
facebook
296.33k
24
Mask2former Swin Large Ade Semantic
その他
Swinバックボーンネットワークの大規模バージョンに基づき、ADE20kセマンティックセグメンテーションデータセットでトレーニングされたMask2Formerモデル。画像セグメンテーションタスクを統一的なパラダイムで処理します。
画像セグメンテーション
Transformers

M
facebook
238.92k
15
Sam2.1 Hiera Large
Apache-2.0
SAM 2はFAIRが開発した、画像とビデオに対応したプロンプト可能な視覚セグメンテーションの基礎モデルで、プロンプトによる汎用セグメンテーションタスクをサポートします。
画像セグメンテーション
S
facebook
203.27k
81
Segformer B0 Finetuned Ade 512 512
その他
SegFormerはTransformerアーキテクチャに基づくセマンティックセグメンテーションモデルで、ADE20kデータセットでファインチューニングされており、512x512解像度の画像セグメンテーションタスクに適しています。
画像セグメンテーション
Transformers

S
nvidia
179.04k
156
Chest X Ray Basic
このモデルは胸部X線画像に対して分割と分類タスクを同時に実行可能で、肺/心臓の分割、体位認識、年齢・性別予測を含みます。
画像セグメンテーション
Transformers

C
ianpan
175.20k
1
Oneformer Coco Swin Large
MIT
OneFormerは初のマルチタスク汎用画像セグメンテーションフレームワークで、単一モデルでセマンティックセグメンテーション、インスタンスセグメンテーション、パノプティックセグメンテーションのタスクを実現
画像セグメンテーション
Transformers

O
shi-labs
165.70k
3
Sam2 Hiera Large
Apache-2.0
FAIRが開発した画像とビデオ向けのプロンプト可能な視覚セグメンテーションの基礎モデル
画像セグメンテーション
S
facebook
155.85k
68
Mask2former Swin Tiny Coco Instance
その他
COCOデータセットでトレーニングされたMask2Formerの小型版インスタンスセグメンテーションモデルで、Swinバックボーンネットワークを採用し、セグメンテーションタスクを統一的に処理
画像セグメンテーション
Transformers

M
facebook
149.85k
7
Oneformer Ade20k Swin Large
MIT
OneFormerは初のマルチタスク汎用画像分割フレームワークで、単一のモデルでセマンティック分割、インスタンス分割、パノラマ分割のタスクをサポートします。
画像セグメンテーション
Transformers

O
shi-labs
141.57k
24
Birefnet HR Matting
MIT
BiRefNetは双方向参照に基づく高解像度二値画像分割モデルで、高解像度透明画像のマット処理専用に設計されています。
画像セグメンテーション
Safetensors
B
ZhengPeng7
141.30k
2
Segformer B3 Clothes
MIT
ATRデータセットでファインチューニングされたSegFormerモデルで、主に服装セグメンテーションや人体セグメンテーションに使用されます
画像セグメンテーション
Transformers

S
sayeed99
102.42k
23
Mit B0
その他
SegFormerはTransformerベースのセマンティックセグメンテーションモデルで、階層型エンコーダと軽量MLPデコーダヘッドを採用しており、ADE20KやCityscapesなどのベンチマークテストで優れた性能を発揮します。
画像セグメンテーション
Transformers

M
nvidia
83.99k
35
Segformer B3 Fashion
その他
SegFormerアーキテクチャに基づくファッションアイテム画像分割モデルで、衣類やアクセサリーの識別と分割に特化
画像セグメンテーション
Transformers

S
sayeed99
75.65k
21
Oneformer Cityscapes Dinat Large
MIT
Cityscapesデータセットでトレーニングされたマルチタスク汎用画像セグメンテーションモデルで、意味セグメンテーション、インスタンスセグメンテーション、パノラマセグメンテーションタスクをサポート
画像セグメンテーション
Transformers

O
shi-labs
70.19k
0
Mask2former Swin Tiny Cityscapes Semantic
その他
Mask2Formerは、インスタンスセグメンテーション、セマンティックセグメンテーション、パノプティックセグメンテーションのタスクを処理できる統一画像セグメンテーションフレームワークです。このモデルはSwin-Tinyバックボーンネットワークに基づいており、Cityscapesデータセットでセマンティックセグメンテーションタスクのファインチューニングが行われています。
画像セグメンテーション
Transformers

M
facebook
55.98k
3
Anzhcs YOLOs
YOLOv8とYOLOv11アーキテクチャに基づいてトレーニングされた一連の物体検出と分割モデル、芸術画像処理に特化
画像セグメンテーション その他
A
Anzhc
48.07k
44
Mask2former Swin Base Coco Panoptic
その他
Swinバックボーンネットワークに基づくMask2Formerモデルで、COCOパノプティックセグメンテーションデータセットでトレーニングされ、インスタンスセグメンテーション、セマンティックセグメンテーション、パノプティックセグメンテーションタスクを統一的なパラダイムで処理します。
画像セグメンテーション
Transformers

M
facebook
45.01k
14
Segformer B2 Finetuned Ade 512 512
その他
SegFormerはTransformerアーキテクチャに基づくセマンティックセグメンテーションモデルで、ADE20kデータセットでファインチューニングされており、512x512解像度の画像セグメンテーションタスクに適しています。
画像セグメンテーション
Transformers

S
nvidia
44.07k
3
Upernet Convnext Small
MIT
UperNetはセマンティックセグメンテーションのためのフレームワークで、ConvNeXtをバックボーンネットワークとして採用し、ピクセルレベルのセマンティックラベル予測を実現できます。
画像セグメンテーション
Transformers 英語

U
openmmlab
43.31k
31
Segformer B5 Finetuned Ade 640 640
その他
SegFormerはTransformerアーキテクチャに基づくセマンティックセグメンテーションモデルで、ADE20kデータセットでファインチューニングされており、画像分割タスクに適しています。
画像セグメンテーション
Transformers

S
nvidia
42.32k
39
Sam2 Hiera Tiny
Apache-2.0
SAM 2はFAIRが開発した画像とビデオ向けのプロンプト可能な視覚セグメンテーションの基礎モデルで、効率的なセグメンテーションをサポートします。
画像セグメンテーション
S
facebook
41.88k
20
Mask2former Swin Large Coco Panoptic
その他
Swinバックボーンネットワークに基づくMask2Formerの大型バージョンで、COCOデータセットのパノプティックセグメンテーションタスク向けに訓練された統一画像セグメンテーションモデル
画像セグメンテーション
Transformers

M
facebook
37.67k
30
Mask2former Swin Large Coco Instance
その他
Mask2FormerはTransformerベースの統一画像セグメンテーションモデルで、Swin-Largeバックボーンを使用しCOCOデータセットでファインチューニングされ、インスタンスセグメンテーションタスクに特化しています
画像セグメンテーション
Transformers

M
facebook
37.31k
6
Birefnet HR
MIT
BiRefNetは高解像度バイナリ画像分割のためのバイラテラル参照フレームワークモデルで、背景除去とマスク生成タスクに特化しています。
画像セグメンテーション
Safetensors
B
ZhengPeng7
35.07k
62
Segformer B5 Finetuned Cityscapes 1024 1024
その他
1024x1024解像度でCityScapesデータセットにファインチューニングされたSegFormerセマンティックセグメンテーションモデルで、階層型Transformerエンコーダと軽量な全MLPデコーダヘッドアーキテクチャを採用しています。
画像セグメンテーション
Transformers

S
nvidia
31.18k
24
RADIO L
AM-RADIOはNVIDIA研究所が開発した視覚基盤モデルで、集約型アーキテクチャにより複数領域の統一表現を実現し、様々なコンピュータビジョンタスクに適用可能です。
画像セグメンテーション
Transformers

R
nvidia
23.27k
8
Upernet Convnext Large
MIT
UperNetは、ピクセルレベルのセマンティックラベル予測のためのConvNeXt大型バックボーンネットワークを組み合わせたセマンティックセグメンテーションフレームワークです。
画像セグメンテーション
Transformers 英語

U
openmmlab
23.09k
0
Segformer B1 Finetuned Cityscapes 1024 1024
その他
このSegFormerモデルは1024x1024解像度でCityScapesデータセットに対してファインチューニングされ、階層型Transformerエンコーダと軽量な全MLPデコーダヘッドアーキテクチャを採用しています。
画像セグメンテーション
Transformers

S
nvidia
20.27k
17
Slimsam Uniform 77
Apache-2.0
SlimSAMは革新的なSAMモデル圧縮手法で、統一プルーニング-蒸留フレームワークにより事前学習済みSAMを効率的に再利用でき、大量の再訓練を必要としません。
画像セグメンテーション
Transformers その他

S
Zigeng
18.82k
24
Sam2 Hiera Base Plus
Apache-2.0
SAM 2はFAIRが開発した画像とビデオのプロンプト可能な視覚セグメンテーションのための基盤モデルで、効率的なセグメンテーションをサポートします。
画像セグメンテーション
S
facebook
18.17k
6
Mask2former Swin Small Coco Instance
その他
Mask2FormerはTransformerベースの統一画像セグメンテーションモデルで、COCOデータセットでインスタンスセグメンテーションタスク用にファインチューニングされています
画像セグメンテーション
Transformers

M
facebook
17.51k
7
Mit B5
その他
SegFormerはTransformerベースのセマンティックセグメンテーションモデルで、このバージョンはImagenet-1kでプリトレーニングされたエンコーダ部分のみを含みます。
画像セグメンテーション
Transformers

M
nvidia
15.94k
9
- 1
- 2
- 3
- 4
- 5
- 6
- 10