# 視覺變換器

Virtus
MIT
基於視覺變換器的二分類模型,專用於檢測深度偽造圖像,準確率達99.2%
圖像分類 Transformers
V
agasta
970
1
Arabic Large Nougat
Gpl-3.0
專為阿拉伯語設計的端到端結構化光學字符識別系統,可將書籍頁面圖像轉換為結構化文本(Markdown格式)
圖像生成文本 Transformers 支持多種語言
A
MohamedRashad
537
10
Dpt Swinv2 Base 384
MIT
DPT (密集預測變換器) 模型在140萬張圖像上訓練,用於單目深度估計。該模型使用Swinv2作為骨幹網絡,適用於高精度深度預測任務。
3D視覺 Transformers
D
Intel
182
0
Nsfw Image Detection
Apache-2.0
基於ViT架構的NSFW圖像分類模型,通過監督學習在ImageNet-21k數據集上預訓練,並在80,000張圖像上微調,用於區分正常和NSFW內容。
圖像分類 Transformers
N
Falconsai
82.4M
588
Dpt Hybrid Midas
Apache-2.0
基於視覺變換器(ViT)的單目深度估計模型,在140萬張圖像上訓練
3D視覺 Transformers
D
Intel
224.05k
94
Vivit B 16x2 Kinetics400
MIT
ViViT是對視覺變換器(ViT)的擴展,適用於視頻處理,特別適合視頻分類任務。
視頻處理 Transformers
V
google
56.94k
32
Vivit B 16x2
MIT
ViViT是對視覺變換器(ViT)的擴展,適用於視頻處理,主要用於視頻分類等下游任務。
視頻處理 Transformers
V
google
989
11
Cvt 21
Apache-2.0
CvT-21是基於ImageNet-1k數據集預訓練的視覺變換器模型,通過引入卷積操作改進傳統視覺變換器。
圖像分類 Transformers
C
microsoft
589
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase