Plip
CLIP是一個多模態視覺語言模型,能夠將圖像和文本映射到共享的嵌入空間,實現零樣本圖像分類和跨模態檢索。
下載量 177.58k
發布時間 : 3/4/2023
模型概述
該模型由OpenAI開發,主要用於研究社區探索零樣本圖像分類任務。它通過對比學習將圖像和文本編碼到同一空間,支持任意類別的圖像分類而不需要特定訓練。
模型特點
零樣本學習能力
無需針對特定分類體系進行微調,即可執行任意類別的圖像分類任務
多模態對齊
通過對比學習實現圖像和文本在共享嵌入空間的對齊
研究導向設計
專門為AI研究者設計,用於探索模型魯棒性、泛化能力和潛在偏差
模型能力
圖像-文本匹配
零樣本圖像分類
跨模態檢索
視覺概念理解
使用案例
學術研究
模型魯棒性分析
研究計算機視覺模型在不同分類體系下的表現差異
可識別模型在不同領域的泛化能力
多模態表示學習
探索視覺與語言模態之間的關聯機制
建立跨模態的語義理解框架
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98