X

Xclip Base Patch16 Ucf 4 Shot

由microsoft開發
X-CLIP是CLIP的最小擴展,用於通用視頻語言理解,通過(視頻,文本)對的對比方式進行訓練。
下載量 16
發布時間 : 9/7/2022

模型概述

X-CLIP模型(基礎規模,16x16的補丁分辨率)以少樣本方式(K=4)在UCF101上訓練,可用於零樣本、少樣本或全監督的視頻分類及視頻-文本檢索任務。

模型特點

少樣本學習
模型在UCF101數據集上以少樣本方式(K=4)訓練,適用於數據稀缺的場景。
視頻-文本對比學習
通過(視頻,文本)對的對比方式進行訓練,支持視頻與文本的匹配任務。
通用視頻識別
模型可用於零樣本、少樣本或全監督的視頻分類及視頻-文本檢索任務。

模型能力

視頻分類
視頻-文本檢索
零樣本學習
少樣本學習

使用案例

視頻理解
視頻分類
對視頻內容進行分類,適用於UCF101數據集中的101個動作類別。
前1準確率達到83.4%
視頻-文本檢索
根據文本描述檢索相關視頻,或根據視頻內容生成匹配的文本描述。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase