CLIP ViT B 16 DataComp.L S1b B8k
模型简介
该模型是基于CLIP架构的视觉-语言模型,能够将图像和文本映射到同一嵌入空间,从而实现零样本图像分类和跨模态检索。
模型特点
零样本学习能力
无需特定任务的微调即可执行新类别的图像分类
跨模态理解
能够同时处理图像和文本输入,理解两者之间的语义关系
高效推理
基于ViT架构优化,在保持性能的同时实现较高的推理速度
大规模预训练
使用DataComp.L数据集和s1B-b8K训练配置进行预训练
模型能力
图像分类
图像-文本匹配
跨模态检索
零样本学习
多模态嵌入
使用案例
内容检索
基于文本的图像搜索
使用自然语言描述检索相关图像
无需预先定义标签即可实现语义搜索
电子商务
产品分类
根据用户描述自动分类产品图像
减少人工标注成本,提高分类效率
内容审核
违规内容检测
根据文本规则自动识别违规图像
可适应新出现的违规类型,无需重新训练
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98