C

CLIP ViT L 14 CommonPool.XL.clip S13b B90k

由laion開發
基於CLIP架構的視覺-語言模型,支持零樣本圖像分類和跨模態檢索
下載量 534
發布時間 : 4/26/2023

模型概述

該模型是CLIP系列的一個變種,結合了Vision Transformer (ViT)架構和對比學習目標,能夠理解圖像和文本之間的語義關係,適用於零樣本圖像分類和跨模態檢索任務。

模型特點

零樣本學習能力
無需特定任務的微調即可執行新類別的圖像分類
跨模態理解
能夠同時處理和理解圖像和文本的語義關係
大規模預訓練
在CommonPool.XL數據集上預訓練,包含約13B樣本

模型能力

零樣本圖像分類
圖像-文本匹配
跨模態檢索
多模態特徵提取

使用案例

內容審核
違規內容檢測
通過文本描述檢測違規圖像內容
可識別多種違規內容類型,準確率取決於具體應用場景
電子商務
視覺搜索
通過文本查詢搜索相關產品圖像
提升產品搜索的相關性和用戶體驗
媒體分析
圖像標註
自動生成圖像的文本描述
可生成語義相關的圖像描述
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase