C

Chinese Clip Vit Large Patch14

由Xenova開發
中文CLIP模型,基於Vision Transformer架構,支持圖像與文本的跨模態理解與生成。
下載量 14
發布時間 : 12/13/2023

模型概述

該模型是一箇中文視覺-語言預訓練模型,能夠理解圖像和文本之間的關係,支持圖像分類、文本生成圖像描述等跨模態任務。

模型特點

跨模態理解
能夠同時處理圖像和文本信息,理解兩者之間的語義關聯
中文優化
專門針對中文語言和場景進行優化訓練
網頁端部署
已轉換為ONNX格式,支持通過Transformers.js在瀏覽器中運行

模型能力

圖像特徵提取
文本特徵提取
圖像-文本相似度計算
跨模態檢索
圖像描述生成

使用案例

電子商務
商品搜索
通過文字描述搜索相關商品圖片
提高搜索準確性和用戶體驗
內容審核
圖文一致性檢查
檢測圖片內容與描述文字是否匹配
減少虛假或誤導性內容
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase