Test Mask2former Swin Large Cityscapes Semantic
その他
Swinバックボーンネットワークを基にした大規模Mask2Formerモデルで、Cityscapesのセマンティックセグメンテーションタスク向けにトレーニングされ、統一アーキテクチャで画像セグメンテーションタスクを処理します
画像セグメンテーション
T
kroixy
22
0
Khmer Xlm Roberta Base
MIT
FacebookAI/xlm-roberta-base事前学習モデルを基に構築されたクメール語マスクフィルモデルで、26,000以上のクメール語文章でファインチューニングされています。
大規模言語モデル
Transformers その他

K
channudam
55
2
Video Mask2former Swin Large Youtubevis 2021 Instance
MIT
YouTubeVIS-2021データセットでトレーニングされたビデオインスタンスセグメンテーションモデル、Swin TransformerバックボーンネットワークとMask2Former統一セグメンテーションアーキテクチャを採用
画像セグメンテーション
Transformers

V
shivalikasingh
52
1
Video Mask2former Swin Tiny Youtubevis 2019 Instance
MIT
YouTubeVIS-2019データセットでトレーニングされた小型ビデオインスタンスセグメンテーションモデル、Swin TransformerバックボーンネットワークとMask2Former統一セグメンテーションアーキテクチャを採用
画像セグメンテーション
Transformers

V
shivalikasingh
19
0
Mask2former Swin Base IN21k Coco Instance
その他
Mask2FormerはTransformerベースの汎用画像セグメンテーションモデルで、COCOデータセットでインスタンスセグメンテーションタスク向けにファインチューニングされています
画像セグメンテーション
Transformers

M
facebook
26
0
Mask2former Swin Base IN21k Cityscapes Semantic
その他
Swin Transformerベースの汎用画像セグメンテーションモデルで、インスタンス/セマンティック/パノプティックセグメンテーションタスクを統一的に処理
画像セグメンテーション
Transformers

M
facebook
329
0
Mask2former Swin Tiny Cityscapes Semantic
その他
Mask2Formerは、インスタンスセグメンテーション、セマンティックセグメンテーション、パノプティックセグメンテーションのタスクを処理できる統一画像セグメンテーションフレームワークです。このモデルはSwin-Tinyバックボーンネットワークに基づいており、Cityscapesデータセットでセマンティックセグメンテーションタスクのファインチューニングが行われています。
画像セグメンテーション
Transformers

M
facebook
55.98k
3
Mask2former Swin Small Cityscapes Semantic
その他
Swinバックボーンネットワークに基づくMask2Formerの小型バージョン、Cityscapesセマンティックセグメンテーションタスク向けにトレーニング
画像セグメンテーション
Transformers

M
facebook
952
2
Mask2former Swin Large Cityscapes Instance
その他
Swin大規模アーキテクチャに基づく統一画像分割モデル、インスタンス/セマンティック/パノラマ分割タスクをサポート
画像セグメンテーション
Transformers

M
facebook
1,248
1
Mask2former Swin Small Ade Semantic
その他
Swinバックボーンネットワークに基づくADE20kセマンティックセグメンテーション用の小型Mask2Formerモデル、統一パラダイムで画像セグメンテーションタスクを処理
画像セグメンテーション
Transformers

M
facebook
3,265
3
Mask2former Swin Large Ade Semantic
その他
Swinバックボーンネットワークの大規模バージョンに基づき、ADE20kセマンティックセグメンテーションデータセットでトレーニングされたMask2Formerモデル。画像セグメンテーションタスクを統一的なパラダイムで処理します。
画像セグメンテーション
Transformers

M
facebook
238.92k
15
Mask2former Swin Base Ade Semantic
その他
ADE20kデータセットでトレーニングされた汎用画像セグメンテーションモデル。統一フレームワークでインスタンス/セマンティック/パノプティックセグメンテーションタスクを処理
画像セグメンテーション
Transformers

M
facebook
2,811
0
Mask2former Swin Tiny Cityscapes Instance
その他
Mask2FormerはTransformerアーキテクチャに基づく汎用画像セグメンテーションモデルで、このバージョンはCityscapesデータセット向けにインスタンスセグメンテーションタスクでファインチューニングされています
画像セグメンテーション
Transformers

M
facebook
67
0
Mask2former Swin Base Coco Panoptic
その他
Swinバックボーンネットワークに基づくMask2Formerモデルで、COCOパノプティックセグメンテーションデータセットでトレーニングされ、インスタンスセグメンテーション、セマンティックセグメンテーション、パノプティックセグメンテーションタスクを統一的なパラダイムで処理します。
画像セグメンテーション
Transformers

M
facebook
45.01k
14
Mask2former Swin Large Coco Instance
その他
Mask2FormerはTransformerベースの統一画像セグメンテーションモデルで、Swin-Largeバックボーンを使用しCOCOデータセットでファインチューニングされ、インスタンスセグメンテーションタスクに特化しています
画像セグメンテーション
Transformers

M
facebook
37.31k
6
Mask2former Swin Small Coco Instance
その他
Mask2FormerはTransformerベースの統一画像セグメンテーションモデルで、COCOデータセットでインスタンスセグメンテーションタスク用にファインチューニングされています
画像セグメンテーション
Transformers

M
facebook
17.51k
7
Mask2former Swin Tiny Coco Instance
その他
COCOデータセットでトレーニングされたMask2Formerの小型版インスタンスセグメンテーションモデルで、Swinバックボーンネットワークを採用し、セグメンテーションタスクを統一的に処理
画像セグメンテーション
Transformers

M
facebook
149.85k
7
Mask2former Swin Base Coco Instance
その他
Swinバックボーンネットワークに基づくMask2Formerモデルで、COCOインスタンスセグメンテーションタスク向けに設計され、統一フレームワークでセグメンテーションタスクを処理
画像セグメンテーション
Transformers

M
facebook
3,249
1
Roberta Base Serbian
これはsrWaCで事前学習されたセルビア語(キリル文字とラテン文字)のRoBERTaモデルで、下流タスクのファインチューニングに適しています。
大規模言語モデル
Transformers その他

R
KoichiYasuoka
20
1
Maskformer Swin Large Coco
その他
Swinバックボーンネットワークに基づく大規模MaskFormerモデル、インスタンス/セマンティック/パノプティックセグメンテーションタスクを統一的に処理
画像セグメンテーション
Transformers

M
facebook
849
24
Maskformer Swin Small Ade
その他
ADE20kデータセットを基に訓練されたセマンティックセグメンテーションモデルで、統一フレームワークを用いてインスタンス/セマンティック/パノラマセグメンテーションタスクを処理します。
画像セグメンテーション
Transformers

M
facebook
205
2
Maskformer Swin Tiny Coco
その他
COCOデータセットを基に訓練された全景セグメンテーションモデルで、統一パラダイムを用いてインスタンス/セマンティック/全景セグメンテーションタスクを処理します。
画像セグメンテーション
Transformers

M
facebook
301
6
Maskformer Swin Small Coco
その他
Swinバックボーンネットワークに基づく小型のMaskFormerモデルで、COCOデータセットで訓練され、全景セグメンテーションタスクに使用されます。
画像セグメンテーション
Transformers

M
facebook
2,293
3
Chinese Roberta L 4 H 768
CLUECorpusSmallで事前学習された24の中国語RoBERTaモデルシリーズの1つで、UER-pyフレームワークでトレーニングされ、マスク言語モデリングとテキスト特徴抽出をサポートします。
大規模言語モデル 中国語
C
uer
17
0
Maskformer Swin Tiny Ade
その他
ADE20kデータセットでトレーニングされたセマンティックセグメンテーションモデルで、インスタンス/セマンティック/パノプティックセグメンテーションタスクを統一的に処理するフレームワークを採用
画像セグメンテーション
Transformers

M
facebook
5,196
5
Bert Base Mongolian Cased
これは事前学習されたモンゴル語のBERTモデルで、モンゴル語のウィキペディアとニュースデータセットを基に訓練され、モンゴル語のテキスト処理タスクをサポートします。
大規模言語モデル その他
B
tugstugi
258
0
Chinesebert Large
ChineseBERTは字形と拼音の情報を融合した中文事前学習モデルで、字形特徴を強化することで中文理解能力を向上させます。
大規模言語モデル
Transformers 中国語

C
junnyu
21
0
Maskformer Swin Base Coco
その他
Swinバックボーンネットワークを基盤とし、COCOデータセットで訓練されたパノプティックセグメンテーションモデルで、インスタンス/セマンティック/パノプティックセグメンテーションタスクを統一的に処理
画像セグメンテーション
Transformers

M
facebook
3,855
24
Maskformer Swin Base Ade
その他
ADE20kデータセットを基に訓練されたMaskFormerセマンティックセグメンテーションモデルで、Swinバックボーンネットワークを採用し、インスタンス/セマンティック/パノラマセグメンテーションタスクを統一的に処理します。
画像セグメンテーション
Transformers

M
facebook
5,670
11
Perceiver Imdb
Perceiverアーキテクチャに基づくマスク言語モデルで、IMDBデータセット上のテキスト補完タスクに適しています。
大規模言語モデル
Transformers

P
addy88
15
0
Bert Base Multilingual Cased Finetuned Swahili
多言語BERTモデルを微調整したスワヒリ語専用モデルで、テキスト分類と固有表現認識タスクで元の多言語BERTよりも優れた性能を発揮します。
大規模言語モデル
Transformers

B
Davlan
64
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98