En PP OCRv4 Mobile Rec
Apache-2.0
PaddleOCR團隊開發的超輕量級英文文本行識別模型,支持英文和數字字符識別
文字識別 支持多種語言
E
PaddlePaddle
303
0
Korean PP OCRv3 Mobile Rec
Apache-2.0
超輕量級韓語文本行識別模型,支持韓語和數字字符識別,平均準確率60.21%。
文字識別 支持多種語言
K
PaddlePaddle
277
0
Japan PP OCRv3 Mobile Rec
Apache-2.0
由PaddleOCR團隊開發的超輕量級日語文本行識別模型,支持日語和數字字符識別。
文字識別 支持多種語言
J
PaddlePaddle
155
0
Cyrillic PP OCRv3 Mobile Rec
Apache-2.0
由PaddleOCR團隊開發的超輕量級西里爾文文本行識別模型,基於PP-OCRv3_mobile_rec訓練,專門針對西里爾文優化
文字識別 支持多種語言
C
PaddlePaddle
312
0
En PP OCRv3 Mobile Rec
Apache-2.0
PaddleOCR團隊開發的超輕量級英文文本行識別模型,支持英文和數字字符識別
文字識別 支持多種語言
E
PaddlePaddle
253
0
PP OCRv5 Mobile Rec
Apache-2.0
PP-OCRv5_mobile_rec 是 PaddleOCR 團隊開發的最新一代文本行識別模型,支持簡體中文、繁體中文、英文和日文四種語言的識別,適用於多種複雜文本場景。
文字識別 支持多種語言
P
PaddlePaddle
499
0
Smollm 135M Instruct
Apache-2.0
一個輕量級指令微調語言模型,專為移動端部署優化
大型語言模型
S
litert-community
131
1
Minueza 2 96M
Apache-2.0
基於Llama架構的緊湊型語言模型,支持英語和葡萄牙語,參數規模9600萬,支持4096個token的上下文長度。
大型語言模型
Transformers 支持多種語言

M
Felladrin
357
6
Deepseek R1 Distill Qwen 1.5B
MIT
基於DeepSeek-R1-Distill-Qwen-1.5B的多個變體,適配LiteRT框架和MediaPipe LLM推理API,可部署於Android平臺。
大型語言模型
D
litert-community
138
4
Llama 3.2 3B Instruct SpinQuant INT4 EO8
Llama 3.2是Meta推出的1B和3B參數規模的多語言預訓練和指令調優生成模型,針對多語言對話用例優化,支持8種官方語言。
大型語言模型
PyTorch 支持多種語言
L
meta-llama
30.02k
35
Coreml Sam2.1 Tiny
Apache-2.0
SAM 2.1 Tiny 是 Facebook AI Research (FAIR) 推出的輕量級圖像與視頻通用分割模型,支持基於提示的可控視覺分割。
圖像分割
C
apple
68
6
Llama 3.2 3B Instruct AWQ
Llama 3.2是Meta推出的多語言大語言模型集合,包含1B和3B參數規模的預訓練和指令調優版本,針對多語言對話用例優化,支持8種官方語言。
大型語言模型
Transformers 支持多種語言

L
AMead10
4,500
2
Llama Guard 3 1B
Llama Guard 3-1B是基於Llama-3.2-1B預訓練模型微調的內容安全分類模型,用於對LLM輸入和響應中的內容進行安全分類。
大型語言模型
Transformers 支持多種語言

L
meta-llama
73.88k
81
Coreml Depth Anything V2 Small
Apache-2.0
Depth Anything V2 是基於 DPT 架構的深度估計模型,採用 DINOv2 骨幹網絡,通過大規模合成和真實數據訓練,實現精細且魯棒的深度預測。
3D視覺
C
apple
67
58
Coreml YOLOv3
MIT
YOLOv3 是一種高效的目標檢測模型,能夠即時定位並分類圖像中的80種不同物體。
目標檢測
C
apple
53
15
Mobileclip B OpenCLIP
MobileCLIP-B是一種高效的圖文模型,通過多模態強化訓練實現快速推理,在零樣本圖像分類任務中表現優異。
文本生成圖像
M
apple
715
3
Mobileclip S2 OpenCLIP
MobileCLIP-S2 是一種高效的圖文模型,通過多模態強化訓練實現快速零樣本圖像分類。
文本生成圖像
M
apple
99.74k
6
Mobileclip S1 OpenCLIP
MobileCLIP-S1是一種高效的圖文模型,通過多模態強化訓練實現快速零樣本圖像分類。
圖像生成文本
M
apple
7,723
10
Mobileclip S0 Timm
MobileCLIP-S0是一個高效的圖文模型,通過多模態強化訓練實現,在保持高性能的同時顯著提升了速度和體積效率。
文本生成圖像
M
apple
532
10
Imp V1.5 4B Phi3
Apache-2.0
Imp-v1.5-4B-Phi3是一個高性能輕量級多模態大模型,僅含40億參數,基於Phi-3框架和SigLIP視覺編碼器構建。
文本生成圖像
Transformers

I
MILVLG
140
7
Coreml Depth Anything Small
Apache-2.0
Depth Anything 是一種基於 DPT 架構和 DINOv2 骨幹網絡的深度估計模型,在約 6200 萬張圖像上訓練,在相對和絕對深度估計任務中取得最先進結果。
3D視覺
C
apple
51
36
Mobileclip S2
其他
MobileCLIP S2 是一個輕量級的視覺-語言模型,專注於圖像特徵提取和零樣本圖像分類任務。
文本生成圖像
Transformers

M
Xenova
86
2
Mobileclip S0
其他
MobileCLIP S0 是蘋果 ml-mobileclip 項目的 ONNX 適配版本,專為移動設備優化的零樣本圖像分類模型。
文本生成圖像
Transformers

M
Xenova
295
1
Plant Disease Detection Project
其他
MobileNet V2是一種輕量級的卷積神經網絡,專為移動設備設計,在延遲、模型大小和準確性之間取得平衡。
圖像分類
Transformers

P
Diginsa
242.43k
4
Mobilevitv2 1.0 Voc Deeplabv3
其他
基於MobileViTv2架構和DeepLabV3頭部的語義分割模型,在PASCAL VOC數據集上以512x512分辨率預訓練
圖像分割
Transformers

M
apple
29
1
Mobilenet V2 1.0 224 Plant Disease Identification
其他
基於MobileNetV2架構微調的植物病害識別模型,在植物村莊數據集上達到95.41%的準確率
圖像分類
Transformers

M
linkanjarad
3,565
26
Efficientnet B7
Apache-2.0
EfficientNet是一種高效的卷積神經網絡,通過統一縮放深度、寬度和分辨率實現高性能圖像分類
圖像分類
Transformers

E
google
6,522
17
Efficientnet B6
Apache-2.0
EfficientNet是一款移動端友好的純卷積模型,通過複合係數統一縮放深度/寬度/分辨率維度,在ImageNet-1k數據集上訓練
圖像分類
Transformers

E
google
167
0
Efficientnet B4
Apache-2.0
EfficientNet是一款移動端友好的純卷積模型,通過複合係數統一調整深度、寬度和分辨率維度,在ImageNet-1k數據集上訓練而成。
圖像分類
Transformers

E
google
5,528
1
Efficientnet B3
Apache-2.0
EfficientNet是一款移動端友好的純卷積神經網絡,通過複合係數統一調整深度/寬度/分辨率維度,實現高效縮放
圖像分類
Transformers

E
google
418
2
Efficientnet B2
Apache-2.0
EfficientNet是一種移動端友好的純卷積模型,通過複合係數統一縮放深度/寬度/分辨率維度,在圖像分類任務中表現優異。
圖像分類
Transformers

E
google
276.94k
2
Efficientnet B1
Apache-2.0
EfficientNet是一款移動端友好的純卷積神經網絡,通過複合係數統一調整深度/寬度/分辨率維度,實現高效縮放。
圖像分類
Transformers

E
google
1,868
1
Efficientnet B0
Apache-2.0
EfficientNet是一款移動端友好的純卷積模型,通過複合係數統一縮放深度/寬度/分辨率維度,在ImageNet-1k數據集上訓練。
圖像分類
Transformers

E
google
17.12k
12
Efficientformer L3 300
Apache-2.0
EfficientFormer-L3是由Snap Research開發的輕量級視覺Transformer模型,專為移動設備優化,在保持高性能的同時實現低延遲。
圖像分類 英語
E
snap-research
279
2
Mobilenet V1 0.75 192
其他
MobileNet V1是一種輕量級卷積神經網絡,專為移動設備設計,在圖像分類任務中平衡了延遲、模型大小和準確率。
圖像分類
Transformers

M
google
31.54k
2
Mobilenet V1 1.0 224
其他
MobileNet V1是一種輕量級卷積神經網絡,專為移動和嵌入式視覺應用設計,在ImageNet-1k數據集上預訓練。
圖像分類
Transformers

M
google
5,344
1
Deeplabv3 Mobilenet V2 1.0 513
其他
基於MobileNetV2架構結合DeepLabV3+分割頭的輕量級語義分割模型,在PASCAL VOC數據集上預訓練
圖像分割
Transformers

D
google
3,129
8
Mobilenet V2 0.35 96
其他
MobileNet V2是一種小型、低延遲、低功耗的視覺模型,專為移動設備優化設計
圖像分類
Transformers

M
google
540
1
Mobilenet V2 0.75 160
其他
MobileNet V2是一個輕量級的計算機視覺模型,專為移動設備優化,在圖像分類任務中表現優異。
圖像分類
Transformers

M
google
480
2
Mobilenet V2 1.0 224
其他
MobileNet V2 是一個輕量級的視覺模型,專為移動設備優化,在圖像分類任務上表現優異。
圖像分類
Transformers

M
google
69.47k
29
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98