C

Chinese Clip Vit Base Patch16

由Xenova開發
基於ViT架構的中文CLIP模型,支持圖像與文本的多模態理解
下載量 264
發布時間 : 12/13/2023

模型概述

這是一個基於Vision Transformer(ViT)架構的中文CLIP模型,專門針對中文場景優化,能夠實現圖像與文本的跨模態理解與匹配。

模型特點

中文優化
專門針對中文場景優化的CLIP模型,支持中文文本與圖像的跨模態理解
零樣本學習
無需特定訓練即可對新類別進行圖像分類
ONNX兼容
提供ONNX格式權重,便於在Web環境中部署

模型能力

零樣本圖像分類
圖文相似度計算
跨模態檢索

使用案例

內容理解
中文圖像分類
對中文標籤的圖像進行分類
示例顯示對皮卡丘圖像分類準確率達99.2%
內容審核
違規內容檢測
通過文本描述檢測違規圖像
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase