Rdnet Tiny.nv In1k
Bsd-3-clause
一個輕量級的RDNet圖像分類模型,在ImageNet-1k數據集上訓練,參數量24M,top-1準確率82.8%。
圖像分類
R
naver-ai
1,942
5
Lsnet B
MIT
LSNet是一個受人類視覺系統動態異尺度能力啟發的輕量級視覺模型家族,在多種視覺任務中實現了性能與效率的平衡。
圖像分類
L
jameslahm
186
1
Hiera Base 224 In1k Hf
Hiera是一種分層式視覺Transformer模型,兼具快速、強大且簡潔的特點,在廣泛圖像與視頻任務中超越現有技術水平的同時顯著提升了運行速度。
圖像分類
Transformers 英語

H
facebook
188
2
Efficientnet B6
Apache-2.0
EfficientNet是一款移動端友好的純卷積模型,通過複合係數統一縮放深度/寬度/分辨率維度,在ImageNet-1k數據集上訓練
圖像分類
Transformers

E
google
167
0
Efficientnet B5
Apache-2.0
EfficientNet是一種對移動設備友好的純卷積模型,通過複合係數統一縮放深度/寬度/分辨率維度,在ImageNet-1k數據集上訓練。
圖像分類
Transformers

E
google
331
1
Efficientnet B3
Apache-2.0
EfficientNet是一款移動端友好的純卷積神經網絡,通過複合係數統一調整深度/寬度/分辨率維度,實現高效縮放
圖像分類
Transformers

E
google
418
2
Efficientnet B2
Apache-2.0
EfficientNet是一種移動端友好的純卷積模型,通過複合係數統一縮放深度/寬度/分辨率維度,在圖像分類任務中表現優異。
圖像分類
Transformers

E
google
276.94k
2
Efficientnet 61 Planet Detection
Apache-2.0
EfficientNetV2 是一個高效的卷積神經網絡架構,特別優化了訓練速度和參數效率。61通道版是該架構的一個變體。
圖像分類
Transformers

E
chlab
14
0
Levit 128S
Apache-2.0
LeViT-128S是基於ImageNet-1k數據集預訓練的視覺Transformer模型,結合了卷積網絡的優勢以實現更快推理。
圖像分類
Transformers

L
facebook
3,198
4
Levit 192
Apache-2.0
LeViT-192是一種結合了卷積神經網絡和Transformer架構的視覺模型,專注於圖像分類任務。
圖像分類
Transformers

L
facebook
23
0
Levit 384
Apache-2.0
LeViT-384是基於ImageNet-1k數據集預訓練的視覺Transformer模型,結合了卷積網絡的優勢以實現更快的推理速度。
圖像分類
Transformers

L
facebook
37
0
Regnet Y 032
Apache-2.0
基於imagenet-1k訓練的RegNet圖像分類模型,通過神經架構搜索設計的高效網絡結構
圖像分類
Transformers

R
facebook
21
0
Deit Tiny Patch16 224
Apache-2.0
DeiT是一種高效訓練的視覺Transformer模型,在ImageNet-1k數據集上預訓練和微調,適用於圖像分類任務。
圖像分類
Transformers

D
facebook
29.04k
9
Rexnet1 3x
Apache-2.0
ReXNet-1.3x是基於ReXNet架構的圖像分類模型,在ImageNette數據集上進行了預訓練。該模型通過改進殘差塊中的Squeeze-Excitation層來減少通道冗餘。
圖像分類
Transformers

R
frgfm
15
0
Rexnet1 5x
Apache-2.0
ReXNet-1.5x 是一個基於 ImageNette 數據集預訓練的輕量級圖像分類模型,採用 ReXNet 架構,通過改進殘差塊中的 Squeeze-Excitation 層來減少通道冗餘。
圖像分類
Transformers

R
frgfm
15
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98