# ImageNet事前学習

Mar Vae Kl16
MIT
これはImageNet-1kデータセットで学習されたKL16変分オートエンコーダ(VAE)モデルで、画像から画像への変換タスクに使用されます。
画像生成
M
xwen99
81
0
Dinov2 Small Imagenet1k 1 Layer
Apache-2.0
DINOv2手法で訓練された小型視覚Transformerモデルで、画像特徴抽出と分類タスクに適しています
画像分類 Transformers
D
facebook
50.86k
2
Pvt Tiny 224
Apache-2.0
ピラミッド視覚トランスフォーマー(PVT)は、トランスフォーマーアーキテクチャに基づく視覚モデルで、画像分類タスク向けに設計されています。
画像分類 Transformers
P
Xrenya
25
0
Efficientnet B6
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みモデルで、複合係数による深さ/幅/解像度の統一スケーリングを行い、ImageNet-1kデータセットで学習されています
画像分類 Transformers
E
google
167
0
Efficientnet B5
Apache-2.0
EfficientNetはモバイルデバイスに適した純粋な畳み込みモデルで、複合係数によって深さ/幅/解像度の次元を統一してスケーリングし、ImageNet-1kデータセットで学習されています。
画像分類 Transformers
E
google
331
1
Efficientnet B4
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みモデルで、複合係数を用いて深さ、幅、解像度の次元を統一調整し、ImageNet-1kデータセットで学習されています。
画像分類 Transformers
E
google
5,528
1
Efficientnet B3
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みニューラルネットワークで、複合係数により深さ/幅/解像度の次元を統一調整し、効率的なスケーリングを実現
画像分類 Transformers
E
google
418
2
Efficientnet B2
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みモデルで、複合係数による深さ/幅/解像度の統一スケーリングにより、画像分類タスクで優れた性能を発揮します。
画像分類 Transformers
E
google
276.94k
2
Efficientnet B1
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みニューラルネットワークで、複合係数により深さ/幅/解像度の次元を統一調整することで効率的なスケーリングを実現します。
画像分類 Transformers
E
google
1,868
1
Efficientnet B0
Apache-2.0
EfficientNetはモバイルフレンドリーな純粋な畳み込みモデルで、複合係数による深さ/幅/解像度の統一スケーリングを行い、ImageNet-1kデータセットで学習されています。
画像分類 Transformers
E
google
17.12k
12
Efficientformer L3 300
Apache-2.0
EfficientFormer-L3はSnap Researchが開発した軽量なVision Transformerモデルで、モバイルデバイス向けに最適化されており、高性能を維持しながら低遅延を実現しています。
画像分類 英語
E
snap-research
279
2
Convnextv2 Base.fcmae
ConvNeXt-V2ベースの自己教師あり特徴表現モデルで、全畳み込みマスク自己エンコーダーフレームワーク(FCMAE)を使用して事前学習
画像分類 Transformers
C
timm
629
1
Vit Base Patch8 224.dino
Apache-2.0
自己教師ありDINO手法で訓練された視覚Transformer(ViT)画像特徴モデルで、画像分類や特徴抽出タスクに適しています。
画像分類 Transformers
V
timm
9,287
1
Nat Mini In1k 224
MIT
NAT-Miniは近傍注意メカニズムに基づく軽量視覚Transformerモデルで、ImageNet画像分類タスク向けに設計されています
画像分類 Transformers その他
N
shi-labs
109
0
Mobilenet V2 0.35 96
その他
MobileNet V2は、モバイルデバイス向けに最適化された小型・低遅延・低消費電力の視覚モデルです
画像分類 Transformers
M
google
540
1
Mobilenet V2 1.4 224
その他
MobileNet V2はモバイルデバイス向けに設計された軽量な畳み込みニューラルネットワークで、画像分類タスクで優れた性能を発揮します。
画像分類 Transformers
M
Matthijs
26
0
Mobilenet V2 1.0 224
その他
MobileNet V2はモバイルデバイス向けに設計された軽量な畳み込みニューラルネットワークで、画像分類タスクで優れた性能を発揮します。
画像分類 Transformers
M
Matthijs
29
0
Mobilenet V1 1.0 224
その他
MobileNet V1は、モバイルおよび組み込み向けの視覚アプリケーション向けに設計された軽量な畳み込みニューラルネットワークで、ImageNet-1kデータセットで事前学習されています。
画像分類 Transformers
M
Matthijs
41
0
Levit 128S
Apache-2.0
LeViT-128SはImageNet-1kデータセットで事前学習された視覚Transformerモデルで、畳み込みネットワークの利点を組み合わせてより高速な推論を実現しています。
画像分類 Transformers
L
facebook
3,198
4
Levit 128
Apache-2.0
LeViT-128は視覚Transformerアーキテクチャに基づく画像分類モデルで、畳み込みネットワークの利点を組み合わせて効率的な推論を実現します。
画像分類 Transformers
L
facebook
44
0
Levit 256
Apache-2.0
LeViT-256はTransformerアーキテクチャに基づく効率的な視覚モデルで、高速推論のために設計され、ImageNet-1kデータセットで事前学習されています。
画像分類 Transformers
L
facebook
37
0
Levit 384
Apache-2.0
LeViT-384はImageNet-1kデータセットで事前学習された視覚Transformerモデルで、畳み込みネットワークの利点を組み合わせてより高速な推論を実現しています。
画像分類 Transformers
L
facebook
37
0
Mobilevit Small
その他
MobileViTは、軽量で低遅延の視覚Transformerモデルであり、CNNとTransformerの利点を組み合わせ、モバイル端末に適しています。
画像分類 Transformers
M
apple
894.23k
65
Mobilevit Small
その他
MobileViTは、軽量で低遅延のビジョントランスフォーマーモデルで、CNNとTransformerの利点を組み合わせ、モバイル端末に適しています。
画像分類 Transformers
M
Matthijs
39
0
Data2vec Vision Large
Apache-2.0
Data2Vec-VisionはBEiTアーキテクチャに基づく自己教師あり学習モデルで、ImageNet-1kデータセットで事前学習されており、画像分類タスクに適しています。
画像分類 Transformers
D
facebook
225
2
Data2vec Vision Base
Apache-2.0
Data2Vec-VisionはBEiTアーキテクチャに基づく自己教師あり学習モデルで、ImageNet-1kデータセットで事前学習されており、画像分類タスクに適しています。
画像分類 Transformers
D
facebook
427
3
Cvt 21
Apache-2.0
CvT-21はImageNet-1kデータセットで事前学習されたビジョントランスフォーマーモデルで、畳み込み操作を導入して従来のビジョントランスフォーマーを改良しています。
画像分類 Transformers
C
microsoft
589
0
Cvt 21 384
Apache-2.0
CvT-21は畳み込みビジョントランスフォーマーアーキテクチャに基づく画像分類モデルで、ImageNet-1kデータセットで384x384解像度で事前学習されています。
画像分類 Transformers
C
microsoft
29
1
Cvt 13 384
Apache-2.0
CvT-13はImageNet-1kデータセットで事前学習されたビジョントランスフォーマーモデルで、畳み込み操作を導入することで従来のビジョントランスフォーマーの性能を改善しました。
画像分類 Transformers
C
microsoft
27
0
Regnet Y 320
Apache-2.0
imagenet-1kで学習されたRegNet画像分類モデル、ニューラルアーキテクチャサーチで設計された効率的なネットワーク構造
画像分類 Transformers
R
facebook
29
0
Regnet Y 160
Apache-2.0
imagenet-1kデータセットで学習されたRegNetモデル、ニューラルアーキテクチャサーチによって設計された効率的な視覚モデル
画像分類 Transformers
R
facebook
18
0
Regnet Y 080
Apache-2.0
ImageNet-1kで学習されたRegNet画像分類モデル、ニューラルアーキテクチャサーチ技術を採用
画像分類 Transformers
R
facebook
30
0
Regnet Y 064
Apache-2.0
imagenet-1kで訓練されたRegNetモデル、ニューラルアーキテクチャサーチによって設計された効率的な視覚モデル
画像分類 Transformers
R
facebook
17
0
Regnet Y 040
Apache-2.0
imagenet-1kで訓練されたRegNetモデル、ニューラルアーキテクチャサーチによって設計された効率的な視覚モデル
画像分類
R
facebook
2,083
1
Regnet Y 032
Apache-2.0
imagenet-1kで訓練されたRegNet画像分類モデル、ニューラルアーキテクチャサーチによって設計された効率的なネットワーク構造
画像分類 Transformers
R
facebook
21
0
Regnet Y 016
Apache-2.0
ImageNet-1kで訓練されたRegNetモデル、ニューラルアーキテクチャサーチによって設計された効率的な視覚モデル
画像分類 Transformers
R
facebook
19
0
Regnet Y 008
Apache-2.0
ImageNet-1kで学習されたRegNetモデル、ニューラルアーキテクチャサーチによって設計された効率的な視覚モデル
画像分類 Transformers
R
facebook
22
0
Regnet Y 006
Apache-2.0
RegNetはニューラルアーキテクチャサーチによって設計された画像分類モデルで、imagenet-1kデータセットで学習されています。
画像分類 Transformers
R
facebook
18
0
Regnet Y 004
Apache-2.0
RegNetはimagenet-1kで訓練された視覚分類モデルで、ニューラルアーキテクチャサーチ(NAS)によって設計された効率的なネットワーク構造です
画像分類 Transformers
R
facebook
17
0
Regnet X 320
Apache-2.0
imagenet-1kで学習されたRegNetモデル、ニューラルアーキテクチャサーチによって設計された効率的な視覚モデル
画像分類 Transformers
R
facebook
31
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase