C

Clip Japanese Base

由line-corporation開發
由LY Corporation開發的日語CLIP模型,基於約10億個網絡收集的圖像-文本對進行訓練,適用於多種視覺任務。
下載量 14.31k
發布時間 : 4/24/2024

模型概述

該模型是基於對比性語言-圖像預訓練(CLIP)的日語模型,適用於零樣本圖像分類、文本到圖像或圖像到文本檢索等任務。

模型特點

強大的日語視覺語言理解
專門針對日語優化的CLIP模型,能夠理解日語文本與圖像之間的關係。
高效架構設計
採用Eva02-B作為圖像編碼器,相比傳統ViT架構更高效。
大規模預訓練數據
基於約10億個網絡收集的圖像-文本對進行訓練,覆蓋廣泛場景。

模型能力

零樣本圖像分類
文本到圖像檢索
圖像到文本檢索
跨模態特徵提取

使用案例

圖像檢索
基於日語描述的圖像搜索
使用日語文本查詢檢索相關圖像
在STAIR Captions數據集上R@1達到0.30
圖像分類
零樣本日語圖像分類
無需微調即可對圖像進行分類
在Recruit Datasets上準確率達到89%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase