# 高精度ViT

Deepfake Detection Using ViT
Apache-2.0
ファインチューニングされたVision Transformer(ViT)を使用してディープフェイク画像を検出する二値分類モデル
画像分類
D
ashish-001
354
1
Crime Cctv Image Detection
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャに基づく画像分類モデルで、監視カメラ画像内の犯罪行為を検出します。精度は約83%。
画像分類
C
dima806
117
2
Vit Finetuned Food101
Apache-2.0
これはFood-101データセットでファインチューニングされたVision Transformerモデルで、食品画像分類タスクに使用されます。
画像分類 TensorBoard
V
ashaduzzaman
162
1
Vit Base Patch8 224.kaiko Ai Towards Large Pathology Fms
その他
timmライブラリに基づいて構築された病理画像分類と特徴抽出モデルで、複数の病理画像データセットで良好な性能を発揮します。
画像分類
V
1aurent
540
1
Melanoma Cancer Image Classification
Apache-2.0
GoogleのViTモデルを微調整したもので、メラノーマ癌画像分類に使用され、精度は93.95%です。
画像分類 Transformers
M
Heem2
135
1
Alzheimer MRI
Apache-2.0
Google ViTベースモデルをファインチューニングしたアルツハイマー病MRI画像分類モデルで、精度は92.6%
画像分類 Transformers
A
DHEIVER
354
2
Vit Base Patch16 224 Blur Vs Clean
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャに基づく微調整モデルで、ぼやけた画像と鮮明な画像を区別するための画像分類タスクに特化
画像分類 Transformers
V
harrytechiz
1,542
2
Dinov2 Base Finetuned SkinDisease
Apache-2.0
DINOv2ベースモデルを微調整した皮膚疾患分類モデルで、ISIC 2018+Atlas Dermatologyデータセットにおいて95.57%の精度を達成。
画像分類 Transformers
D
Jayanth2002
1,584
3
Platzi Vit Model Will Mendoza
Apache-2.0
GoogleのViTモデルを豆類データセットでファインチューニングした画像分類モデルで、精度は98.5%
画像分類 Transformers
P
willmendoza
15
0
Platzi Vit Model Nelson Silvera
Apache-2.0
これはGoogleのViTモデルをbeansデータセットでファインチューニングした画像分類モデルで、検証セットで98.5%の精度を達成しました。
画像分類 Transformers
P
platzi
16
0
Histo Train Vit
Apache-2.0
google/vit-base-patch16-224を微調整した画像分類モデルで、評価セットで82.5%の精度を達成
画像分類 Transformers
H
tcvrishank
18
0
Vegetation Classification Model
Apache-2.0
Vision Transformerベースの画像分類モデルで、街景画像中の植生部分を識別し、精度は92.9%に達します。
画像分類 Transformers 英語
V
iammartian0
21
1
Platzi Vit Model Julio Test
Apache-2.0
これはGoogleのViTモデルを豆類データセットで微調整した画像分類モデルで、検証セットで99.25%の高い精度を達成しました。
画像分類 Transformers
P
platzi
18
0
Zoalearn2
zoalearn2はGoogleのViTモデルを微調整した珊瑚種分類モデルで、最も人気のある32種類の珊瑚種を識別できます。
画像分類 Transformers
Z
tdros
16
0
Vit Base Patch16 224 Futurama Image Multilabel Clf
Apache-2.0
Google Vision Transformerをファインチューニングしたマルチラベル画像分類モデルで、アニメシリーズ『Futurama』のスクリーンショットの内容を識別するために特別に設計されています。
画像分類 Transformers 英語
V
DunnBC22
19
1
My Awesome Food Model
ViTアーキテクチャに基づく食品分類モデル、Food101データセットでファインチューニングされ、精度98.5%を達成
画像分類 Transformers
M
Mustafa21
19
0
Finetuned Vit Image Text Classifier
Apache-2.0
ViTアーキテクチャに基づく画像分類モデルで、画像にテキストが含まれているかどうか、およびテキストの種類(ラテン文字、中国語、アラビア語)を識別するために使用されます
画像分類 Transformers
F
ernie-ai
45
0
Vit Base Patch16 224 In21k Finetuned Lora Food101
Apache-2.0
ViTアーキテクチャに基づく食品画像分類モデル、Food101データセットでファインチューニングされ、精度96%を達成
画像分類 Transformers
V
sayakpaul
39
2
Vit Base Patch16 224 In21k Lung And Colon Cancer
Apache-2.0
ViTアーキテクチャに基づく肺がんと大腸がんの多クラス画像分類モデルで、評価セットで99.94%の精度を達成
画像分類 Transformers 英語
V
DunnBC22
2,654
4
Vit Base Patch32 224 In21k Finetuned Eurosat
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャに基づく画像分類モデルで、food101データセットでファインチューニングされ、食品画像分類タスクに使用されます
画像分類 Transformers
V
sshreshtha
30
0
Hf Train Output
Apache-2.0
このモデルはGoogleのViT-base-patch16-224-in21kを岩石氷河データセットでファインチューニングした画像分類モデルで、精度は92.58%です。
画像分類 Transformers
H
venetis
28
0
Vit Large Patch32 384 Melanoma
Apache-2.0
GoogleのViT-Largeモデルを微調整したメラノーマ画像分類モデルで、評価セットで82.73%の精度を達成
画像分類 Transformers
V
UnipaPolitoUnimore
100
1
Deit Base Patch16 224 FV Finetuned Memes
Apache-2.0
facebook/deit-base-patch16-224をベースに微調整したスタンプ分類モデルで、imagefolderデータセットで84.85%の精度を達成
画像分類 Transformers
D
jayanta
11
0
Vit Base Patch16 224 Finetuned Memes V3
Apache-2.0
これはGoogleのViTモデルをベースにファインチューニングした画像分類モデルで、スタンプ認識タスク専用です。
画像分類 Transformers
V
jayantapaul888
13
0
Syn Oct ViT Base 8Epochs 30c V2 Run
ViTアーキテクチャに基づく画像分類モデルで、特定のデータセットで8エポック訓練され、精度は94.99%に達しました。
画像分類 Transformers
S
g30rv17ys
13
0
Deit Base Mri
Apache-2.0
mriDataSetデータセットに基づいてfacebook/deit-base-distilled-patch16-224をファインチューニングした画像分類モデルで、精度は99.01%
画像分類 Transformers
D
raedinkhaled
15
0
Exper Batch 16 E8
Apache-2.0
google/vit-base-patch16-224-in21kモデルをsudo-s/herbier_mesuem1データセットでファインチューニングした画像分類モデルで、精度は91.29%
画像分類 Transformers
E
sudo-s
30
0
Vit Beans
Apache-2.0
このモデルはGoogleのViTアーキテクチャをbeansデータセットでファインチューニングした画像分類モデルで、精度は96.99%です。
画像分類 Transformers
V
johnnydevriese
14
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase