Eva02 Small Patch14 224.mim In22k
MIT
EVA02特徵/表示模型,通過掩碼圖像建模在ImageNet-22k上預訓練,適用於圖像分類和特徵提取任務。
圖像分類
Transformers

E
timm
705
0
Focalnet Huge Fl4.ms In22k
MIT
FocalNet是一個基於焦點調製網絡的圖像分類模型,由微軟團隊在ImageNet-22k數據集上預訓練完成。
圖像分類
Transformers

F
timm
103
0
Cvt 21 384 22k
Apache-2.0
CvT-21是一種結合卷積和Transformer架構的視覺模型,在ImageNet-22k上預訓練並在ImageNet-1k上微調
圖像分類
Transformers

C
microsoft
134
3
Cvt 13 384 22k
Apache-2.0
CvT-13是一種結合卷積和Transformer的視覺模型,在ImageNet-22k上預訓練並在ImageNet-1k上微調,適用於圖像分類任務。
圖像分類
Transformers

C
microsoft
508
0
Convnext Xlarge 224 22k
Apache-2.0
ConvNeXT是一個純卷積模型,其設計靈感來自視覺Transformer,宣稱性能優於視覺Transformer。該模型基於ImageNet-22k數據集在224x224分辨率下訓練而成。
圖像分類
Transformers

C
facebook
2,135
1
Convnext Large 224 22k
Apache-2.0
ConvNeXT是一個純卷積模型,受視覺Transformer設計啟發,在ImageNet-22k數據集上訓練而成,性能超越Transformer。
圖像分類
Transformers

C
facebook
1,425
0
Convnext Base 224 22k
Apache-2.0
ConvNeXT是一個純卷積模型,其設計靈感來自視覺Transformer,宣稱性能優於視覺Transformer。該模型在224x224分辨率下基於ImageNet-22k數據集訓練而成。
圖像分類
Transformers

C
facebook
1,797
6
Convnext Base 384 22k 1k
Apache-2.0
ConvNeXT是一個純卷積模型,受視覺Transformer設計啟發,在ImageNet-22k上預訓練並在ImageNet-1k上微調,性能優於Transformer。
圖像分類
Transformers

C
facebook
797
3
Convnext Large 384 22k 1k
Apache-2.0
ConvNeXT是一個純卷積模型,受視覺Transformer設計啟發,在ImageNet-22k上預訓練並在ImageNet-1k上微調,性能優於傳統Transformer。
圖像分類
Transformers

C
facebook
73
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98