Vit Large Patch14 Clip 224.dfn2b
基於CLIP架構的視覺變換器模型,專注於圖像特徵提取,由蘋果公司發佈。
Downloads 178
Release Time : 12/26/2024
Model Overview
該模型是CLIP(對比語言-圖像預訓練)的圖像編碼器部分,採用Vision Transformer (ViT)架構,適用於圖像特徵提取任務。
Model Features
基於CLIP架構
採用對比學習框架,能夠學習圖像和文本的聯合表示。
Vision Transformer
使用ViT架構處理圖像,將圖像分割為patch序列進行處理。
大規模預訓練
在大型數據集上預訓練,具有強大的特徵提取能力。
Model Capabilities
圖像特徵提取
圖像表示學習
Use Cases
計算機視覺
圖像檢索
使用提取的圖像特徵進行相似圖像檢索。
視覺問答
作為視覺問答系統的圖像編碼器。
多模態學習
圖文匹配
用於圖像和文本的跨模態匹配任務。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 Chinese
R
uer
2,694
98