Nsfw Image Detection
Apache-2.0
ViTアーキテクチャに基づくNSFW画像分類モデル。ImageNet-21kデータセットで事前学習し、80,000枚の画像でファインチューニングされ、通常コンテンツとNSFWコンテンツを区別します。
画像分類
Transformers

N
Falconsai
82.4M
588
Fairface Age Image Detection
Apache-2.0
Vision Transformerアーキテクチャに基づく画像分類モデルで、ImageNet-21kデータセットで事前学習されており、多クラス画像分類タスクに適しています
画像分類
Transformers

F
dima806
76.6M
10
Dinov2 Small
Apache-2.0
DINOv2手法でトレーニングされた小型視覚Transformerモデル、自己教師あり学習で画像特徴を抽出
画像分類
Transformers

D
facebook
5.0M
31
Vit Base Patch16 224
Apache-2.0
ImageNet - 21kで事前学習し、ImageNetでファインチューニングしたビジュアルトランスフォーマーモデルで、画像分類タスクに使用されます。
画像分類
V
google
4.8M
775
Vit Base Patch16 224 In21k
Apache-2.0
ImageNet - 21kデータセットを使って事前学習されたビジュアルTransformerモデルで、画像分類タスクに使用されます。
画像分類
V
google
2.2M
323
Dinov2 Base
Apache-2.0
DINOv2手法でトレーニングされた視覚Transformerモデル、自己教師あり学習で画像特徴を抽出
画像分類
Transformers

D
facebook
1.9M
126
Gender Classification
PyTorchとHuggingPicsを使用して構築された画像分類モデルで、画像内の性別を識別します
画像分類
Transformers

G
rizvandwiki
1.8M
48
Vit Base Nsfw Detector
Apache-2.0
Vision Transformer (ViT)アーキテクチャに基づく画像分類モデルで、画像がNSFW(不適切)コンテンツを含むかどうかを検出するために特別に設計されています。
画像分類
Transformers

V
AdamCodd
1.2M
47
Vit Hybrid Base Bit 384
Apache-2.0
ハイブリッドビジョントランスフォーマー(ViT)モデルは、畳み込みネットワークとTransformerアーキテクチャを組み合わせたもので、画像分類タスクにおいてImageNetで優れた性能を発揮します。
画像分類
Transformers

V
google
992.28k
6
Gender Classification 2
これはPyTorchフレームワークとHuggingPicsツールで生成された画像分類モデルで、性別分類タスク専用です。
画像分類
Transformers

G
rizvandwiki
906.98k
32
Mobilevit Small
その他
MobileViTは、軽量で低遅延の視覚Transformerモデルであり、CNNとTransformerの利点を組み合わせ、モバイル端末に適しています。
画像分類
Transformers

M
apple
894.23k
65
Phikon
その他
PhikonはiBOTでトレーニングされた組織病理学の自己教師あり学習モデルで、主に組織学的画像パッチから特徴を抽出するために使用されます。
画像分類
Transformers 英語

P
owkin
741.63k
30
Vit Tiny Patch16 224
Apache-2.0
timmリポジトリから変換されたViT-Tinyモデルで、画像分類タスクに適しており、使用方法はViT-baseモデルと同じです
画像分類
Transformers

V
WinKawaks
692.49k
21
Dinov2 Large
Apache-2.0
DINOv2手法で訓練されたビジョンTransformerモデル。自己教師あり学習により大量の画像データから頑健な視覚特徴を抽出
画像分類
Transformers

D
facebook
558.78k
79
Beit Base Patch16 224 Pt22k Ft22k
Apache-2.0
BEiTは視覚Transformer(ViT)ベースの画像分類モデルで、自己教師あり方式でImageNet-22kで事前学習され、同じデータセットでファインチューニングされています。
画像分類
B
microsoft
546.85k
76
Vit Small Patch16 224
Apache-2.0
timmコードベースから変換されたViT-tinyモデル、画像分類タスクに適しています
画像分類
Transformers

V
WinKawaks
447.70k
18
Rad Dino
その他
自己教師あり学習DINOv2で訓練された視覚Transformerモデル、胸部X線画像のエンコーディング専用
画像分類
Transformers

R
microsoft
411.96k
48
Swinv2 Tiny Patch4 Window16 256
Apache-2.0
Swin Transformer v2は、階層的特徴マップと局所ウィンドウ自己注意機構により効率的な画像分類を実現する視覚トランスフォーマーモデルです。
画像分類
Transformers

S
microsoft
403.69k
5
Swin Base Patch4 Window7 224
Apache-2.0
Swin Transformerは、移動ウィンドウに基づく階層型ビジュアルTransformerで、画像分類タスクに適しています。
画像分類
Transformers

S
microsoft
281.49k
15
Efficientnet B2
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みモデルで、複合係数による深さ/幅/解像度の統一スケーリングにより、画像分類タスクで優れた性能を発揮します。
画像分類
Transformers

E
google
276.94k
2
Resnet 50
Apache-2.0
ResNet-50はImageNet-1kで事前学習された残差ネットワークモデルで、v1.5アーキテクチャの改良を採用し、画像分類タスクに適しています。
画像分類
R
microsoft
273.80k
407
Plant Disease Detection Project
その他
MobileNet V2はモバイルデバイス向けに設計された軽量な畳み込みニューラルネットワークで、遅延、モデルサイズ、精度のバランスを実現しています。
画像分類
Transformers

P
Diginsa
242.43k
4
Beit Large Patch16 224
Apache-2.0
BEiTはVision Transformer(ViT)アーキテクチャに基づく画像分類モデルで、自己教師あり学習によりImageNet-21kで事前学習され、ImageNet-1kでファインチューニングされています。
画像分類
B
microsoft
222.46k
1
Prov Gigapath
Apache-2.0
Prov-GigaPathは実世界データに基づくデジタル病理学全スライド基礎モデルで、病理スライドのパッチレベルおよびスライドレベルの特徴を抽出します。
画像分類
P
prov-gigapath
193.45k
131
Vit Large Patch16 224
Apache-2.0
Transformerアーキテクチャに基づく大規模画像分類モデルで、ImageNet - 21kとImageNet - 1kデータセットで事前学習と微調整を行っています。
画像分類
V
google
188.47k
30
Skin Type
人間の肌タイプを分類するための画像分類モデルで、公平性を実現し、すべての肌色で正確に動作することを目指しています。
画像分類
Transformers

S
driboune
182.21k
3
Vit Large Patch16 384
Apache-2.0
ビジョントランスフォーマー(ViT)は、トランスフォーマーアーキテクチャに基づく画像分類モデルで、最初にImageNet-21kで事前学習され、その後ImageNetでファインチューニングされます。
画像分類
V
google
161.29k
12
Nsfw Image Detection 384
Apache-2.0
軽量NSFW画像検出モデル、精度98.56%、サイズは同類モデルの1/18-1/20
画像分類
N
Marqo
158.92k
21
Deit Base Patch16 224
Apache-2.0
DeiTは、アテンション機構を用いてトレーニングされたデータ効率的な画像Transformerモデルで、ImageNet - 1kデータセット上で224x224の解像度で事前学習と微調整が行われます。
画像分類
Transformers

D
facebook
152.63k
13
Resnet 18
Apache-2.0
ImageNet-1kでトレーニングされたResNetモデル、残差接続構造を採用し、画像分類タスクをサポート
画像分類
Transformers

R
microsoft
133.01k
52
Deepfake Vs Real Image Detection
Apache-2.0
Vision Transformerアーキテクチャに基づく画像分類モデルで、本物の画像とAI生成の偽造画像を検出します。
画像分類
Transformers

D
dima806
129.66k
27
Dino Vitb16
Apache-2.0
DINO自己教師あり手法で訓練された視覚Transformerモデルで、ViTアーキテクチャを採用し、ImageNet-1kデータセットで事前学習されています。
画像分類
Transformers

D
facebook
122.46k
108
Vit Large Patch14 Reg4 Dinov2.lvd142m
Apache-2.0
レジスタ付き視覚トランスフォーマー(ViT)画像特徴モデル、自己教師ありのDINOv2手法でLVD-142Mデータセット上で事前学習済み。
画像分類
Transformers

V
timm
119.48k
7
Vit Large Patch32 384
Apache-2.0
このビジュアルTransformer(ViT)モデルは、まずImageNet - 21kデータセットで事前学習され、その後ImageNetデータセットで微調整され、画像分類タスクに適しています。
画像分類
V
google
118.37k
16
Dinov2 Giant
Apache-2.0
DINOv2手法で訓練された視覚Transformerモデル、自己教師あり学習により画像特徴を抽出
画像分類
Transformers

D
facebook
117.56k
41
Dino Vits8
Apache-2.0
DINO手法に基づく自己教師あり学習で訓練されたVision Transformerモデル。8x8画像パッチ処理を使用し、画像特徴抽出タスクに適しています
画像分類
Transformers

D
facebook
106.97k
12
Swin Tiny Patch4 Window7 224
Apache-2.0
Swin Transformerは階層型ビジュアルTransformerで、局所ウィンドウを使って自己アテンションを計算することで線形計算複雑度を実現し、画像分類タスクに適しています。
画像分類
Transformers

S
microsoft
98.00k
42
Pedestrian Gender Recognition
Apache-2.0
このモデルはBEiTアーキテクチャを基にPETAデータセットでファインチューニングされた画像分類モデルで、歩行者の性別を認識し、精度は91.07%です。
画像分類
Transformers

P
NTQAI
93.78k
15
Vit Large Patch16 224 In21k
Apache-2.0
ImageNet-21kデータセットで事前学習されたVision Transformerモデルで、画像特徴抽出や下流タスクのファインチューニングに適しています。
画像分類
V
google
92.63k
26
Vit Small Patch16 224.dino
Apache-2.0
視覚Transformer(ViT)ベースの画像特徴モデルで、自己教師ありDINO手法でトレーニングされ、画像分類や特徴抽出タスクに適しています。
画像分類
Transformers

V
timm
70.62k
4
Mobilenet V2 1.0 224
その他
MobileNet V2はモバイルデバイス向けに最適化された軽量視覚モデルで、画像分類タスクで優れた性能を発揮します。
画像分類
Transformers

M
google
69.47k
29
Nsfw Image Detector
Apache-2.0
Google Vision TransformerをファインチューニングしたNSFW(職場不適切)コンテンツ検出モデルで、5種類の画像コンテンツを識別可能
画像分類
Transformers

N
LukeJacob2023
68.26k
17
- 1
- 2
- 3
- 4
- 5
- 6
- 10