Clip Vitl14 Test Time Registers
MIT
基于OpenCLIP-ViT-L-14模型,引入测试时寄存器技术,提升模型可解释性和下游任务性能
文本生成图像
Transformers

C
amildravid4292
236
0
The Teacher V 2
这是一个用于零样本分类任务的transformers模型,可在无需大量标注数据的情况下对文本进行分类。
文本分类
Transformers

T
shiviklabs
172
0
Clip Vitb16 Test Time Registers
基于OpenCLIP-ViT-B-16架构的视觉语言模型,通过引入测试时寄存器优化内部表示,解决特征图伪影问题
文本生成图像
Transformers

C
amildravid4292
517
0
Cropvision CLIP
基于CLIP架构微调的视觉语言模型,专门用于植物病害的零样本分类
图像分类
Safetensors 英语
C
EduFalcao
38
0
Industry Project V2
Apache-2.0
基于Mistral架构优化的指令微调模型,适用于零样本分类任务
大型语言模型
I
omsh97
58
0
Fg Clip Large
Apache-2.0
FG-CLIP是一种细粒度视觉与文本对齐模型,通过两阶段训练实现全局和区域级的图文对齐,提升细粒度视觉理解能力。
多模态对齐
Transformers 英语

F
qihoo360
538
3
Smartshot Zeroshot Finetuned V0.2.0
基于MoritzLaurer/deberta-v3-base-zeroshot-v2.0-c微调的零样本分类模型,采用NLI框架的SmartShot方法训练
文本分类
Safetensors 英语
S
gincioks
197
0
Smartshot Zeroshot Finetuned V0.1.2
MIT
基于roberta-base-zeroshot-v2.0-c微调的零样本分类模型,采用SmartShot方法和合成数据提升性能
文本分类 其他
S
gincioks
119
0
Bge Reranker V2 M3 Q5 K M GGUF
Apache-2.0
该模型是通过ggml.ai的GGUF-my-repo空间,使用llama.cpp从BAAI/bge-reranker-v2-m3转换而来的GGUF格式模型,主要用于文本分类任务。
文本嵌入 其他
B
pyarn
31
1
Marfin Emotion
Apache-2.0
基于 mDeBERTa-v3 微调的情感检测模型,支持印尼语和英语的情绪分类
文本分类
Transformers 支持多种语言

M
MarfinF
185
0
Sail Clip Hendrix 10epochs
基于openai/clip-vit-large-patch14微调的视觉语言模型,经过10个epoch的训练
文本生成图像
Transformers

S
cringgaard
49
0
Git RSCLIP
Apache-2.0
Git-RSCLIP是基于Git-10M数据集预训练的视觉-语言模型,专注于遥感图像的多模态理解。
文本生成图像
Safetensors
G
lcybuaa
59.37k
4
Marqo Fashionsiglip ST
Apache-2.0
Marqo-FashionSigLIP 是一款多模态嵌入模型,专为时尚产品搜索优化,相比 FashionCLIP 在 MRR 和召回率上提升了57%。
图像生成文本
Transformers 英语

M
pySilver
3,586
0
Drama Large Xnli Anli
基于facebook/drama-large在XNLI和ANLI数据集上微调的零样本分类模型,支持15种语言的自然语言推理任务。
大型语言模型 支持多种语言
D
mjwong
23
0
Clip Backdoor Rn50 Cc3m Badnets
MIT
这是一个预训练的后门注入模型,用于研究对比语言图像预训练中的后门样本检测。
文本生成图像 英语
C
hanxunh
16
0
Gte Multilingual Base Xnli Anli
Apache-2.0
该模型是基于Alibaba-NLP/gte-multilingual-base在XNLI和ANLI数据集上微调的版本,支持多语言自然语言推理任务。
文本分类 支持多种语言
G
mjwong
21
0
Gte Multilingual Base Xnli
Apache-2.0
该模型是基于Alibaba-NLP/gte-multilingual-base在XNLI数据集上微调的版本,支持多语言自然语言推理任务。
文本分类 支持多种语言
G
mjwong
58
0
Clip Vit Base Patch32 Lego Brick
MIT
基于CLIP模型微调的乐高积木图像-文本匹配模型,专为识别乐高积木及其描述设计。
文本生成图像
Transformers 英语

C
armaggheddon97
44
0
Conceptclip
MIT
ConceptCLIP是一个通过医学概念增强的大规模视觉语言预训练模型,适用于多种医学影像模态,能在多种医学影像任务中实现稳健性能。
图像生成文本
Transformers 英语

C
JerrryNie
836
1
Modernbert Large Nli
Apache-2.0
基于ModernBERT-large模型,通过多任务微调优化的自然语言推理模型,在零样本分类和NLI任务上表现优异。
大型语言模型
Transformers 支持多种语言

M
tasksource
61.52k
5
Modernbert Base Zeroshot V2.0
Apache-2.0
基于ModernBERT-base微调的零样本分类器,高效快速且内存占用低,适用于多种文本分类任务。
文本分类
Transformers

M
MoritzLaurer
261
17
Modernbert Large Zeroshot V2.0
Apache-2.0
基于ModernBERT-large微调的零样本分类器,高效快速且内存占用低,适用于多种文本分类任务。
大型语言模型
Transformers

M
MoritzLaurer
25.66k
47
Llm Jp Clip Vit Large Patch14
Apache-2.0
基于OpenCLIP框架训练的日语CLIP模型,在14.5亿日文图文对数据集上训练,支持零样本图像分类和图文检索任务
文本生成图像 日语
L
llm-jp
254
1
Resnet50x64 Clip Gap.openai
Apache-2.0
基于ResNet50架构的CLIP模型图像编码器,具有64倍宽度扩展,使用全局平均池化(GAP)策略
图像分类
Transformers

R
timm
107
0
Resnet50x16 Clip Gap.openai
Apache-2.0
基于CLIP框架的ResNet50x16变体模型,专注于图像特征提取
图像分类
Transformers

R
timm
129
0
Resnet50x4 Clip Gap.openai
Apache-2.0
基于CLIP框架的ResNet50x4变体模型,专为图像特征提取设计
图像分类
Transformers

R
timm
170
0
Resnet50 Clip Gap.openai
Apache-2.0
基于CLIP模型视觉编码器部分的ResNet50变体,通过全局平均池化(GAP)提取图像特征
图像分类
Transformers

R
timm
250
1
Resnet50 Clip Gap.cc12m
Apache-2.0
基于ResNet50架构的CLIP风格图像编码器,使用CC12M数据集训练,通过全局平均池化(GAP)提取特征
图像分类
Transformers

R
timm
19
0
Vit Large Patch14 Clip 224.dfn2b
其他
基于CLIP架构的视觉变换器模型,专注于图像特征提取,由苹果公司发布。
图像分类
Transformers

V
timm
178
0
Modernbert Large Zeroshot V1
MIT
基于ModernBERT-large微调的自然语言推理模型,专门用于零样本分类任务
文本分类
Transformers 英语

M
r-f
54
2
Vit Large Patch14 Clip 224.laion2b
Apache-2.0
基于CLIP架构的视觉Transformer模型,专注于图像特征提取
图像分类
Transformers

V
timm
502
0
Vit Huge Patch14 Clip 224.laion2b
Apache-2.0
基于CLIP框架的ViT-Huge视觉编码器,使用laion2B数据集训练,支持图像特征提取
图像分类
Transformers

V
timm
1,969
0
Vit Base Patch32 Clip 224.laion2b
Apache-2.0
基于CLIP架构的视觉Transformer模型,专为图像特征提取设计,使用laion2B数据集训练
图像分类
Transformers

V
timm
83
0
Convnext Base.clip Laiona
Apache-2.0
基于CLIP框架的ConvNeXt Base模型,使用LAION-Aesthetic数据集训练,适用于图像特征提取任务。
图像分类
Transformers

C
timm
14
0
Modernbert Base Nli
Apache-2.0
ModernBERT 是一个在多任务源的自然语言推理(NLI)任务上微调的模型,擅长零样本分类和长上下文推理。
大型语言模型
Transformers 支持多种语言

M
tasksource
1,867
20
Llm Jp Clip Vit Base Patch16
Apache-2.0
日语CLIP模型,基于OpenCLIP框架训练,支持零样本图像分类任务
文本生成图像 日语
L
llm-jp
40
1
Deberta Zero Shot Classification
MIT
基于DeBERTa-v3-base微调的零样本文本分类模型,适用于标注数据稀缺的场景或快速原型开发。
文本分类
Transformers 英语

D
syedkhalid076
51
0
Microsoft Git Base
MIT
GIT是一个基于Transformer的生成式图像转文本模型,能够将视觉内容转换为文本描述。
图像生成文本 支持多种语言
M
seckmaster
18
0
Aimv2 Large Patch14 224 Lit
AIMv2是一个采用多模态自回归目标预训练的视觉模型系列,在多项多模态理解基准测试中表现优异。
图像生成文本
A
apple
222
6
LLM2CLIP Openai L 14 224
Apache-2.0
LLM2CLIP是一种利用大型语言模型(LLM)释放CLIP潜力的创新方法,通过对比学习框架提升文本判别性,突破原始CLIP文本编码器的限制。
文本生成图像
Safetensors
L
microsoft
108
5
- 1
- 2
- 3
- 4
- 5
- 6
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98