M

Metaclip B32 Fullcc2.5b

由facebook開發
MetaCLIP是基於CommonCrawl(CC)25億數據點訓練的視覺-語言模型,用於構建圖像-文本共享嵌入空間。
下載量 413
發布時間 : 10/7/2023

模型概述

該模型由Meta團隊開發,旨在揭示CLIP訓練數據篩選方法,支持零樣本圖像分類、基於文本的圖像檢索等任務。

模型特點

大規模數據訓練
基於CommonCrawl的25億數據點訓練,覆蓋廣泛視覺概念
開放數據流程
首次公開CLIP類模型的數據篩選方法,提高透明度
多模態嵌入空間
構建統一的圖像-文本嵌入空間,支持跨模態檢索

模型能力

零樣本圖像分類
基於文本的圖像檢索
基於圖像的文本檢索
跨模態特徵提取

使用案例

內容檢索
圖像搜索引擎
使用自然語言描述檢索相關圖像
智能分類
零樣本圖像分類
無需特定訓練即可對新類別圖像進行分類
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase