Nsfw Image Detector
Apache-2.0
Google Vision TransformerをファインチューニングしたNSFW(職場不適切)コンテンツ検出モデルで、5種類の画像コンテンツを識別可能
画像分類
Transformers

N
LukeJacob2023
68.26k
17
Vit Beans
Apache-2.0
google/vit-base-patch16-224-in21kをbeansデータセットでファインチューニングしたVision Transformerモデル、画像分類タスク用
画像分類
Transformers

V
SangjeHwang
17
1
My Trash Classification
Hugging Faceの事前学習済みビジョントランスフォーマー(ViT)モデルを使用した画像分類ソリューションで、画像を6種類のゴミに分類可能
画像分類
Transformers

M
tribber93
259
1
UL Exterior Classification
Apache-2.0
GoogleのViT-base-patch16-224モデルをファインチューニングした画像分類モデルで、評価セットでの精度は68.97%
画像分類
Transformers

U
sharmajai901
319
1
Brand Identification
MIT
このモデルはGoogleのVision Transformer(ViT)をファインチューニングしたロゴ識別モデルで、UAE企業のロゴ分類に特化しています。
画像分類
Transformers 英語

B
Falconsai
478
1
Clip Vit Base Patch32 Stanford Cars
CLIP視覚トランスフォーマーアーキテクチャに基づき、スタンフォード自動車データセットでファインチューニングされた視覚分類モデル
画像分類
Transformers

C
tanganke
4,143
1
Bhutanese Textile Model
Apache-2.0
GoogleのViTモデルをファインチューニングしたブータンテキスタイル画像分類モデル
画像分類
Transformers

B
Dalaix703
50
1
Celebrity Classifier
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャに基づく有名人分類モデル、1000人のトップ有名人を識別
画像分類
Transformers

C
tonyassi
394
5
Vit Base Blur
Apache-2.0
このモデルは、google/vit-base-patch16-224-in21kをぼやけた画像データセットでファインチューニングしたバージョンで、ぼやけた画像と鮮明な画像を区別するために使用されます。
画像分類
Transformers

V
WT-MM
92
6
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
GoogleのViT-Base-Patch16-224モデルを花の画像データセットでファインチューニングしたVision Transformerモデル
画像分類
Transformers

V
adamtky
15
0
Histo Train
Apache-2.0
google/vit-base-patch16-224を基にファインチューニングした画像分類モデルで、組織学画像解析タスクに適しています。
画像分類
Transformers

H
tcvrishank
36
0
Fun
Apache-2.0
google/vit-base-patch16-224をベースにファインチューニングされた視覚モデルで、画像分類タスクに適しています
画像分類
Transformers

F
tcvrishank
16
0
Vit Base Letter
Apache-2.0
GoogleのViTベースモデルを文字認識データセットでファインチューニングした画像分類モデルで、精度は98.81%
画像分類
Transformers 英語

V
pittawat
93
2
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
GoogleのViTモデルを花卉画像データセットでファインチューニングしたVision Transformerモデル
画像分類
Transformers

V
CHAOYUYD
35
0
Vit Base Beans
Apache-2.0
このモデルはGoogleのViT-baseモデルをbeansデータセットでファインチューニングした画像分類モデルで、精度は98.5%です。
画像分類
Transformers

V
leejw51
20
1
Multilabel V3
Apache-2.0
google/vit-base-patch16-224-in21kをファインチューニングしたマルチラベル分類モデル、精度は73.7%
画像分類
Transformers

M
Madronus
19
0
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
Google Vision Transformer (ViT)モデルを花卉画像データセットでファインチューニングした視覚分類モデル
画像分類
Transformers

V
chanelcolgate
18
0
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
GoogleのViTモデルを花卉画像データセットでファインチューニングしたVision Transformerモデル
画像分類
Transformers

V
smakubi
35
1
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
GoogleのViTモデルを花卉画像データセットでファインチューニングしたVision Transformerモデルで、画像分類タスクに適しています
画像分類
Transformers

V
Barghi
35
0
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
GoogleのViTモデルを花卉画像データセットでファインチューニングしたVision Transformerモデルで、画像分類タスクに適しています
画像分類
Transformers

V
RicardC
17
0
Vit Base Patch16 224 Finetuned Eurosat
Apache-2.0
GoogleのViT基本アーキテクチャに基づき、EuroSATリモートセンシング画像データセットでファインチューニングされた画像分類モデル
画像分類
Transformers

V
sabhashanki
18
0
My Awesome Food Model
Apache-2.0
GoogleのViTモデルをfood101データセットでファインチューニングした食品分類モデル
画像分類
Transformers

M
jinkasreedhar
16
0
My Food Model
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャに基づく食品画像分類モデルで、Food101データセットでファインチューニングされ、精度は90.9%を達成
画像分類
Transformers

M
iammartian0
18
0
Fl Image Category Multi Label
Apache-2.0
これはGoogleのViTモデルをファインチューニングした画像分類モデルで、fl_image_category_dsデータセットで訓練され、66.22%の精度を達成しています。
画像分類
Transformers

F
StephenSKelley
17
1
My Awesome Food Model
Apache-2.0
これはGoogleのViTモデルをfood101データセットでファインチューニングした食品分類モデルで、精度は89.5%に達します。
画像分類
Transformers

M
luigg
17
0
Vit Base Patch16 224 Finetuned Chest
Apache-2.0
GoogleのViTモデルを胸部画像データセットでファインチューニングした画像分類モデルで、精度は99%
画像分類
Transformers

V
adielsa
37
0
Vit Model Beimer
Apache-2.0
このモデルはGoogleのViT-base-patch16-224-in21kをbeansデータセットでファインチューニングした画像分類モデルで、精度は98.5%です。
画像分類
Transformers

V
tadeous
39
0
Cristian Vit
Apache-2.0
このモデルはGoogleのViTアーキテクチャを豆類データセットでファインチューニングした画像分類モデルで、検証セットで100%の精度を達成しました。
画像分類
Transformers

C
agudelozc
40
0
Genderage2
Apache-2.0
ViTアーキテクチャに基づくVision Transformerモデルで、性別と年齢の分類タスクに使用
画像分類
Transformers

G
ivensamdh
263
3
Google Vit Base Patch16 224 Cartoon Face Recognition
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャを基にファインチューニングしたアニメ顔認識モデルで、画像分類タスクで優れた性能を発揮します
人の顔に関係がある
Transformers

G
jayanta
62
2
My Awesome Food Model
Apache-2.0
ViTアーキテクチャに基づく食品画像分類モデル、Food101データセットでファインチューニングされ、精度は89.7%
画像分類
Transformers

M
asd0936
38
0
Vit Base Patch16 224 In21k Male Or Female Eyes
Apache-2.0
これはViTアーキテクチャに基づくバイナリ分類モデルで、男性と女性の目の画像を区別するために使用されます。
画像分類
Transformers 英語

V
DunnBC22
37
1
Vit Base Patch16 224 In21k GI Diagnosis
Apache-2.0
ViTアーキテクチャに基づく消化器画像分類モデルで、内視鏡画像から様々な疾患を診断するために使用されます
画像分類
Transformers 英語

V
DunnBC22
22
1
Vit Fire Detection
Apache-2.0
google/vit-base-patch16-224-in21kをファインチューニングしたVision Transformerモデルで、火炎検知タスクに特化しており、評価データセットで高い精度と再現率を示しています。
画像分類
Transformers

V
EdBianchi
1,851
6
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
GoogleのViTモデルを花卉画像データセットでファインチューニングしたVision Transformerモデル
画像分類
Transformers

V
jonathanfernandes
48
0
Spoofing Vit 16 224
Apache-2.0
ViTアーキテクチャに基づく画像偽造検出モデル、未知のデータセットでファインチューニング後70.88%の精度を達成
画像分類
Transformers

S
venuv62
59
0
Vit Base Beans
Apache-2.0
GoogleのViTモデルを豆類データセットでファインチューニングした画像分類モデルで、精度は97.74%
画像分類
Transformers

V
socokal
30
0
Dataset Model
Apache-2.0
ViTアーキテクチャに基づく画像分類モデルで、画像フォルダデータセットでファインチューニングされています
画像分類
Transformers

D
Farideh
30
0
Vit Model
Apache-2.0
このモデルはGoogleのViTアーキテクチャをbeansデータセットでファインチューニングした画像分類モデルで、豆類植物の健康状態を識別するために使用されます。
画像分類
Transformers

V
jeraldflowers
16
0
Platzi Vit Model Tommasory Beans
Apache-2.0
GoogleのViTモデルを豆類データセットでファインチューニングした画像分類モデルで、精度は99.25%
画像分類
Transformers

P
tommasory
30
0
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98