Test Mask2former Swin Large Cityscapes Semantic
その他
Swinバックボーンネットワークを基にした大規模Mask2Formerモデルで、Cityscapesのセマンティックセグメンテーションタスク向けにトレーニングされ、統一アーキテクチャで画像セグメンテーションタスクを処理します
画像セグメンテーション
T
kroixy
22
0
TIGER Speech
Apache-2.0
TIGERは軽量音声分離モデルで、周波数帯域分割、マルチスケールおよび全周波数フレームモデリングにより重要な音響特徴を効果的に抽出します。
音声分離
Safetensors 英語
T
JusperLee
1,286
8
Video Mask2former Swin Large Youtubevis 2021 Instance
MIT
YouTubeVIS-2021データセットでトレーニングされたビデオインスタンスセグメンテーションモデル、Swin TransformerバックボーンネットワークとMask2Former統一セグメンテーションアーキテクチャを採用
画像セグメンテーション
Transformers

V
shivalikasingh
52
1
Video Mask2former Swin Tiny Youtubevis 2019 Instance
MIT
YouTubeVIS-2019データセットでトレーニングされた小型ビデオインスタンスセグメンテーションモデル、Swin TransformerバックボーンネットワークとMask2Former統一セグメンテーションアーキテクチャを採用
画像セグメンテーション
Transformers

V
shivalikasingh
19
0
Mask2former Swin Base IN21k Coco Instance
その他
Mask2FormerはTransformerベースの汎用画像セグメンテーションモデルで、COCOデータセットでインスタンスセグメンテーションタスク向けにファインチューニングされています
画像セグメンテーション
Transformers

M
facebook
26
0
Mask2former Swin Base IN21k Cityscapes Semantic
その他
Swin Transformerベースの汎用画像セグメンテーションモデルで、インスタンス/セマンティック/パノプティックセグメンテーションタスクを統一的に処理
画像セグメンテーション
Transformers

M
facebook
329
0
Mask2former Swin Tiny Cityscapes Semantic
その他
Mask2Formerは、インスタンスセグメンテーション、セマンティックセグメンテーション、パノプティックセグメンテーションのタスクを処理できる統一画像セグメンテーションフレームワークです。このモデルはSwin-Tinyバックボーンネットワークに基づいており、Cityscapesデータセットでセマンティックセグメンテーションタスクのファインチューニングが行われています。
画像セグメンテーション
Transformers

M
facebook
55.98k
3
Mask2former Swin Small Cityscapes Semantic
その他
Swinバックボーンネットワークに基づくMask2Formerの小型バージョン、Cityscapesセマンティックセグメンテーションタスク向けにトレーニング
画像セグメンテーション
Transformers

M
facebook
952
2
Mask2former Swin Large Cityscapes Instance
その他
Swin大規模アーキテクチャに基づく統一画像分割モデル、インスタンス/セマンティック/パノラマ分割タスクをサポート
画像セグメンテーション
Transformers

M
facebook
1,248
1
Mask2former Swin Small Ade Semantic
その他
Swinバックボーンネットワークに基づくADE20kセマンティックセグメンテーション用の小型Mask2Formerモデル、統一パラダイムで画像セグメンテーションタスクを処理
画像セグメンテーション
Transformers

M
facebook
3,265
3
Mask2former Swin Large Ade Semantic
その他
Swinバックボーンネットワークの大規模バージョンに基づき、ADE20kセマンティックセグメンテーションデータセットでトレーニングされたMask2Formerモデル。画像セグメンテーションタスクを統一的なパラダイムで処理します。
画像セグメンテーション
Transformers

M
facebook
238.92k
15
Mask2former Swin Base Ade Semantic
その他
ADE20kデータセットでトレーニングされた汎用画像セグメンテーションモデル。統一フレームワークでインスタンス/セマンティック/パノプティックセグメンテーションタスクを処理
画像セグメンテーション
Transformers

M
facebook
2,811
0
Mask2former Swin Tiny Cityscapes Instance
その他
Mask2FormerはTransformerアーキテクチャに基づく汎用画像セグメンテーションモデルで、このバージョンはCityscapesデータセット向けにインスタンスセグメンテーションタスクでファインチューニングされています
画像セグメンテーション
Transformers

M
facebook
67
0
Mask2former Swin Small Cityscapes Instance
その他
Mask2FormerはTransformerベースの統一画像セグメンテーションモデルで、マスクアテンションメカニズムにより性能を向上
画像セグメンテーション
Transformers

M
facebook
43
1
Mask2former Swin Large Cityscapes Semantic
その他
Swinバックボーンネットワークを基にした大規模なMask2Formerモデルで、Cityscapesセマンティックセグメンテーションタスク向けにトレーニングされ、統一アーキテクチャで様々な画像セグメンテーションタスクを処理します。
画像セグメンテーション
Transformers

M
facebook
296.33k
24
Mask2former Swin Base Coco Panoptic
その他
Swinバックボーンネットワークに基づくMask2Formerモデルで、COCOパノプティックセグメンテーションデータセットでトレーニングされ、インスタンスセグメンテーション、セマンティックセグメンテーション、パノプティックセグメンテーションタスクを統一的なパラダイムで処理します。
画像セグメンテーション
Transformers

M
facebook
45.01k
14
Mask2former Swin Large Coco Instance
その他
Mask2FormerはTransformerベースの統一画像セグメンテーションモデルで、Swin-Largeバックボーンを使用しCOCOデータセットでファインチューニングされ、インスタンスセグメンテーションタスクに特化しています
画像セグメンテーション
Transformers

M
facebook
37.31k
6
Mask2former Swin Small Coco Instance
その他
Mask2FormerはTransformerベースの統一画像セグメンテーションモデルで、COCOデータセットでインスタンスセグメンテーションタスク用にファインチューニングされています
画像セグメンテーション
Transformers

M
facebook
17.51k
7
Mask2former Swin Tiny Coco Instance
その他
COCOデータセットでトレーニングされたMask2Formerの小型版インスタンスセグメンテーションモデルで、Swinバックボーンネットワークを採用し、セグメンテーションタスクを統一的に処理
画像セグメンテーション
Transformers

M
facebook
149.85k
7
Mask2former Swin Base Coco Instance
その他
Swinバックボーンネットワークに基づくMask2Formerモデルで、COCOインスタンスセグメンテーションタスク向けに設計され、統一フレームワークでセグメンテーションタスクを処理
画像セグメンテーション
Transformers

M
facebook
3,249
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98