Vit Beans
Apache-2.0
基於google/vit-base-patch16-224-in21k在beans數據集上微調的視覺Transformer模型,用於圖像分類任務
圖像分類
Transformers

V
SangjeHwang
17
1
Pokemon Classifier Gen9 1025
Apache-2.0
這是一個經過微調的ViT(視覺變換器)模型,專門用於寶可夢圖像分類。該模型經過訓練,能夠對多達第九世代(1025種)的寶可夢圖像進行分類。
圖像分類
Transformers 英語

P
skshmjn
22.91k
1
My Trash Classification
使用Hugging Face預訓練視覺變換器(ViT)模型實現的圖像分類方案,可將圖像分為六類垃圾
圖像分類
Transformers

M
tribber93
259
1
UL Exterior Classification
Apache-2.0
基於Google的ViT-base-patch16-224模型微調而成的圖像分類模型,在評估集上準確率為68.97%
圖像分類
Transformers

U
sharmajai901
319
1
Brand Identification
MIT
該模型是基於谷歌視覺變換器(ViT)微調的標誌識別模型,專門用於分類阿聯酋公司標誌。
圖像分類
Transformers 英語

B
Falconsai
478
1
Clip Vit Base Patch32 Stanford Cars
基於CLIP視覺變換器架構,在斯坦福汽車數據集上微調的視覺分類模型
圖像分類
Transformers

C
tanganke
4,143
1
Bhutanese Textile Model
Apache-2.0
基於Google的ViT模型微調的不丹紡織品圖像分類模型
圖像分類
Transformers

B
Dalaix703
50
1
Nsfw Image Detector
Apache-2.0
基於Google Vision Transformer微調的NSFW(不適宜工作場所)內容檢測模型,可識別5類圖像內容
圖像分類
Transformers

N
LukeJacob2023
68.26k
17
Celebrity Classifier
Apache-2.0
基於Google Vision Transformer (ViT)架構的名人分類模型,用於識別1000位頂級名人
圖像分類
Transformers

C
tonyassi
394
5
Vit Base Blur
Apache-2.0
該模型是基於google/vit-base-patch16-224-in21k在模糊圖像數據集上微調的版本,用於區分模糊圖像和清晰圖像。
圖像分類
Transformers

V
WT-MM
92
6
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基於Google的ViT-Base-Patch16-224模型在花卉圖像數據集上微調的視覺Transformer模型
圖像分類
Transformers

V
adamtky
15
0
Platzi Vit Model Mewita
Apache-2.0
基於Google的ViT模型在豆類數據集上微調的圖像分類模型,準確率達97.74%
圖像分類
Transformers

P
platzi
15
0
Histo Train
Apache-2.0
基於google/vit-base-patch16-224微調的圖像分類模型,適用於組織學圖像分析任務。
圖像分類
Transformers

H
tcvrishank
36
0
Fun
Apache-2.0
基於google/vit-base-patch16-224微調的視覺模型,適用於圖像分類任務
圖像分類
Transformers

F
tcvrishank
16
0
Vit Base Letter
Apache-2.0
基於Google的ViT基礎模型在字母識別數據集上微調的圖像分類模型,準確率達98.81%
圖像分類
Transformers 英語

V
pittawat
93
2
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基於Google的ViT模型在花卉圖像數據集上微調的視覺Transformer模型
圖像分類
Transformers

V
CHAOYUYD
35
0
Vit Base Beans
Apache-2.0
該模型是基於Google的ViT-base模型在beans數據集上微調得到的圖像分類模型,準確率達98.5%。
圖像分類
Transformers

V
leejw51
20
1
Multilabel V3
Apache-2.0
基於google/vit-base-patch16-224-in21k微調的多標籤分類模型,準確率為73.7%
圖像分類
Transformers

M
Madronus
19
0
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基於Google Vision Transformer (ViT)模型在花卉圖像數據集上微調的視覺分類模型
圖像分類
Transformers

V
chanelcolgate
18
0
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基於Google的ViT模型在花卉圖像數據集上微調的視覺Transformer模型
圖像分類
Transformers

V
smakubi
35
1
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基於Google的ViT模型在花卉圖像數據集上微調的視覺Transformer模型,適用於圖像分類任務
圖像分類
Transformers

V
Barghi
35
0
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基於Google的ViT模型在花卉圖像數據集上微調的視覺Transformer模型,適用於圖像分類任務
圖像分類
Transformers

V
RicardC
17
0
Vit Base Patch16 224 Finetuned Eurosat
Apache-2.0
基於 Google 的 ViT 基礎架構,在 EuroSAT 遙感圖像數據集上微調的圖像分類模型
圖像分類
Transformers

V
sabhashanki
18
0
My Awesome Food Model
Apache-2.0
基於Google的ViT模型在food101數據集上微調的食品分類模型
圖像分類
Transformers

M
jinkasreedhar
16
0
My Food Model
Apache-2.0
基於Google Vision Transformer (ViT)架構的食品圖像分類模型,在Food101數據集上微調,準確率達90.9%
圖像分類
Transformers

M
iammartian0
18
0
Fl Image Category Multi Label
Apache-2.0
這是一個基於Google的ViT模型進行微調的圖像分類模型,在fl_image_category_ds數據集上訓練,準確率達到66.22%。
圖像分類
Transformers

F
StephenSKelley
17
1
My Awesome Food Model
Apache-2.0
這是一個基於Google的ViT模型在food101數據集上微調的食物分類模型,準確率達到89.5%。
圖像分類
Transformers

M
luigg
17
0
Vit Base Patch16 224 Finetuned Algae Wirs
Apache-2.0
該模型是基於Google的ViT模型在藻類數據集上微調的視覺分類模型,主要用於藻類圖像分類任務。
圖像分類
Transformers

V
samitizerxu
20
0
Vit Base Patch16 224 Finetuned Chest
Apache-2.0
基於Google的ViT模型在胸部圖像數據集上微調的圖像分類模型,準確率達99%
圖像分類
Transformers

V
adielsa
37
0
Vit Model Beimer
Apache-2.0
該模型是基於Google的ViT-base-patch16-224-in21k在beans數據集上微調的圖像分類模型,準確率達98.5%。
圖像分類
Transformers

V
tadeous
39
0
Cristian Vit
Apache-2.0
該模型是基於Google的ViT架構在豆類數據集上微調的圖像分類模型,在驗證集上取得了100%的準確率。
圖像分類
Transformers

C
agudelozc
40
0
Vit Model1
Apache-2.0
基於Google的ViT模型在beans數據集上微調的圖像分類模型,準確率達97.74%
圖像分類
Transformers

V
fernando232s
19
0
Genderage2
Apache-2.0
基於ViT架構的視覺Transformer模型,用於性別和年齡分類任務
圖像分類
Transformers

G
ivensamdh
263
3
Google Vit Base Patch16 224 Cartoon Face Recognition
Apache-2.0
基於Google Vision Transformer (ViT)架構微調的卡通人臉識別模型,在圖像分類任務上表現優異
人臉相關
Transformers

G
jayanta
62
2
My Awesome Food Model
Apache-2.0
基於ViT架構的食品圖像分類模型,在Food101數據集上微調,準確率達89.7%
圖像分類
Transformers

M
asd0936
38
0
Vit Base Beans
Apache-2.0
該模型是基於Google的ViT架構在beans數據集上微調的圖像分類模型,準確率達到97.74%。
圖像分類
Transformers

V
naveensb8182
22
0
Vit Base Patch16 224 In21k Male Or Female Eyes
Apache-2.0
這是一個基於ViT架構的二元分類模型,用於區分男性和女性的眼睛圖像。
圖像分類
Transformers 英語

V
DunnBC22
37
1
Vit Base Patch16 224 In21k GI Diagnosis
Apache-2.0
基於ViT架構的胃腸道圖像分類模型,用於從結腸鏡檢查圖像中診斷多種病症
圖像分類
Transformers 英語

V
DunnBC22
22
1
Vit Fire Detection
Apache-2.0
基於google/vit-base-patch16-224-in21k微調的視覺Transformer模型,專注於火焰檢測任務,在評估集上表現出高精確率和召回率。
圖像分類
Transformers

V
EdBianchi
1,851
6
Vit Base Patch16 224 Finetuned Flower
Apache-2.0
基於Google的ViT模型在花卉圖像數據集上微調的視覺Transformer模型
圖像分類
Transformers

V
jonathanfernandes
48
0
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98