S

Siglip Large Patch16 256

Developed by google
SigLIP是基于WebLi数据集预训练的视觉语言模型,采用改进的sigmoid损失函数提升性能
Downloads 24.13k
Release Time : 1/8/2024

Model Overview

SigLIP是改进损失函数后的CLIP多模态模型,适用于零样本图像分类、图文检索等任务

Model Features

改进的损失函数
采用sigmoid损失函数,无需全局归一化,在小批次和大批次场景下均表现优异
高效预训练
在16块TPU-v4芯片上仅需三天完成训练
多模态理解
同时处理图像和文本信息,实现跨模态语义对齐

Model Capabilities

零样本图像分类
图文相似度计算
跨模态检索

Use Cases

内容理解
社交媒体图片分类
无需训练即可对用户上传图片进行自动分类
准确率优于传统CLIP模型
电子商务
商品图文匹配
自动检测商品图片与描述文本的一致性
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase