C

Convnext Base.clip Laiona

由timm開發
基於CLIP框架的ConvNeXt Base模型,使用LAION-Aesthetic數據集訓練,適用於圖像特徵提取任務。
下載量 14
發布時間 : 12/24/2024

模型概述

該模型是CLIP(Contrastive Language-Image Pretraining)框架中的圖像編碼器部分,採用ConvNeXt Base架構,在LAION-Aesthetic數據集上進行訓練,主要用於提取高質量的圖像特徵表示。

模型特點

基於ConvNeXt架構
採用現代ConvNeXt架構,結合了CNN和Transformer的優點,提供高效的圖像特徵提取能力。
CLIP框架
作為CLIP框架的圖像編碼器部分,能夠學習與文本對齊的圖像表示。
LAION-Aesthetic數據集訓練
在LAION-Aesthetic數據集上訓練,專注於美學質量較高的圖像數據。

模型能力

圖像特徵提取
圖像表示學習

使用案例

計算機視覺
圖像檢索
利用提取的圖像特徵進行相似圖像檢索。
圖像分類
作為預訓練模型用於圖像分類任務。
多模態學習
圖文匹配
與文本編碼器配合實現圖文匹配任務。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase