F

FLIP Base 32

由FLIP-dataset開發
這是一個基於CLIP架構的視覺語言模型,專門針對人臉圖像進行了8000萬張圖片的後訓練。
下載量 16
發布時間 : 6/28/2023

模型概述

該模型基於CLIP架構,通過8000萬張人臉圖像的後訓練,增強了在人臉相關任務上的表現。適用於人臉識別、圖像檢索等任務。

模型特點

大規模人臉數據訓練
使用8000萬張人臉圖像進行後訓練,增強了模型在人臉相關任務上的表現
基於CLIP架構
繼承了CLIP模型的強大視覺語言對齊能力
高效訓練
使用8張A100 GPU進行訓練,採用TencentPretrain框架優化訓練效率

模型能力

人臉圖像特徵提取
圖像-文本匹配
人臉圖像檢索
跨模態理解

使用案例

人臉識別
人臉驗證
驗證兩張人臉圖像是否屬於同一個人
人臉搜索
在大型數據庫中搜索相似人臉
內容審核
人臉內容過濾
識別和過濾不適當的人臉內容
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase