Eva Giant Patch14 Clip 224.laion400m
MIT
EVA CLIP模型是基於OpenCLIP和timm框架的視覺語言模型,支持零樣本圖像分類任務。
文本生成圖像
E
timm
124
0
Eva02 Enormous Patch14 Clip 224.laion2b Plus
MIT
EVA-CLIP是基於CLIP架構的大規模視覺-語言模型,支持零樣本圖像分類等任務。
文本生成圖像
E
timm
54
0
Eva02 Enormous Patch14 Clip 224.laion2b
MIT
EVA-CLIP是一個基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務。
文本生成圖像
E
timm
38
0
Eva02 Base Patch16 Clip 224.merged2b
MIT
EVA CLIP模型是基於OpenCLIP與timm框架構建的視覺語言模型,支持零樣本圖像分類等任務。
文本生成圖像
E
timm
3,029
0
Vit Large Patch14 Clip 224.laion2b
Apache-2.0
基於CLIP架構的視覺Transformer模型,專注於圖像特徵提取
圖像分類
Transformers

V
timm
502
0
Vit Large Patch14 Clip 224.datacompxl
Apache-2.0
基於CLIP架構的視覺Transformer模型,專門用於圖像特徵提取,由LAION組織發佈。
圖像分類
Transformers

V
timm
14
0
Vit Base Patch16 Clip 224.laion2b
Apache-2.0
基於CLIP架構的視覺Transformer模型,僅包含圖像編碼器部分,適用於圖像特徵提取任務
圖像分類
Transformers

V
timm
4,460
0
Vit Base Patch16 Plus Clip 240.laion400m E31
MIT
基於LAION-400M數據集訓練的視覺-語言雙用途模型,支持零樣本圖像分類任務
圖像分類
V
timm
37.23k
0
Resnet50x4 Clip.openai
MIT
基於CLIP架構的ResNet50x4視覺語言模型,支持零樣本圖像分類任務
圖像生成文本
R
timm
2,303
0
Resnet50 Clip.openai
MIT
基於ResNet50架構和CLIP技術的零樣本圖像分類模型
圖像分類
R
timm
11.91k
0
Mobileclip S0
其他
MobileCLIP S0 是蘋果 ml-mobileclip 項目的 ONNX 適配版本,專為移動設備優化的零樣本圖像分類模型。
文本生成圖像
Transformers

M
Xenova
295
1
Vit Betwixt Patch32 Clip 224.tinyclip Laion400m
MIT
基於ViT架構的小型CLIP模型,適用於零樣本圖像分類任務,訓練於LAION-400M數據集。
圖像分類
V
timm
113
1
Vit Medium Patch32 Clip 224.tinyclip Laion400m
MIT
基於OpenCLIP庫的視覺語言模型,支持零樣本圖像分類任務。
圖像分類
V
timm
110
0
Vit Medium Patch16 Clip 224.tinyclip Yfcc15m
MIT
基於ViT架構的CLIP模型,用於零樣本圖像分類任務
圖像分類
V
timm
144
0
Chinese Clip Vit Base Patch16
基於ViT架構的中文CLIP模型,支持圖像與文本的多模態理解
文本生成圖像
Transformers

C
Xenova
264
1
CLIP ViT L 14 CommonPool.XL S13b B90k
MIT
基於CLIP架構的視覺-語言預訓練模型,支持零樣本圖像分類和跨模態檢索任務
文本生成圖像
C
laion
4,255
2
CLIP ViT B 16 CommonPool.L.clip S1b B8k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
138
0
CLIP ViT B 32 DataComp.M S128m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務,使用DataComp.M數據集訓練
文本生成圖像
C
laion
212
0
CLIP ViT B 32 CommonPool.M.laion S128m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
65
0
CLIP ViT B 32 CommonPool.S S13m B4k
MIT
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類任務
文本生成圖像
C
laion
79
0
Eva02 Base Patch16 Clip 224.merged2b S8b B131k
MIT
基於EVA02架構的CLIP模型,適用於零樣本圖像分類任務
文本生成圖像
E
timm
29.73k
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98