# 零樣本分類

Clip Vitl14 Test Time Registers
MIT
基於OpenCLIP-ViT-L-14模型,引入測試時寄存器技術,提升模型可解釋性和下游任務性能
文本生成圖像 Transformers
C
amildravid4292
236
0
The Teacher V 2
這是一個用於零樣本分類任務的transformers模型,可在無需大量標註數據的情況下對文本進行分類。
文本分類 Transformers
T
shiviklabs
172
0
Clip Vitb16 Test Time Registers
基於OpenCLIP-ViT-B-16架構的視覺語言模型,通過引入測試時寄存器優化內部表示,解決特徵圖偽影問題
文本生成圖像 Transformers
C
amildravid4292
517
0
Cropvision CLIP
基於CLIP架構微調的視覺語言模型,專門用於植物病害的零樣本分類
圖像分類 Safetensors 英語
C
EduFalcao
38
0
Industry Project V2
Apache-2.0
基於Mistral架構優化的指令微調模型,適用於零樣本分類任務
大型語言模型
I
omsh97
58
0
Fg Clip Large
Apache-2.0
FG-CLIP是一種細粒度視覺與文本對齊模型,通過兩階段訓練實現全局和區域級的圖文對齊,提升細粒度視覺理解能力。
多模態對齊 Transformers 英語
F
qihoo360
538
3
Smartshot Zeroshot Finetuned V0.2.0
基於MoritzLaurer/deberta-v3-base-zeroshot-v2.0-c微調的零樣本分類模型,採用NLI框架的SmartShot方法訓練
文本分類 Safetensors 英語
S
gincioks
197
0
Smartshot Zeroshot Finetuned V0.1.2
MIT
基於roberta-base-zeroshot-v2.0-c微調的零樣本分類模型,採用SmartShot方法和合成數據提升性能
文本分類 其他
S
gincioks
119
0
Bge Reranker V2 M3 Q5 K M GGUF
Apache-2.0
該模型是通過ggml.ai的GGUF-my-repo空間,使用llama.cpp從BAAI/bge-reranker-v2-m3轉換而來的GGUF格式模型,主要用於文本分類任務。
文本嵌入 其他
B
pyarn
31
1
Marfin Emotion
Apache-2.0
基於 mDeBERTa-v3 微調的情感檢測模型,支持印尼語和英語的情緒分類
文本分類 Transformers 支持多種語言
M
MarfinF
185
0
Sail Clip Hendrix 10epochs
基於openai/clip-vit-large-patch14微調的視覺語言模型,經過10個epoch的訓練
文本生成圖像 Transformers
S
cringgaard
49
0
Git RSCLIP
Apache-2.0
Git-RSCLIP是基於Git-10M數據集預訓練的視覺-語言模型,專注於遙感圖像的多模態理解。
文本生成圖像 Safetensors
G
lcybuaa
59.37k
4
Marqo Fashionsiglip ST
Apache-2.0
Marqo-FashionSigLIP 是一款多模態嵌入模型,專為時尚產品搜索優化,相比 FashionCLIP 在 MRR 和召回率上提升了57%。
圖像生成文本 Transformers 英語
M
pySilver
3,586
0
Drama Large Xnli Anli
基於facebook/drama-large在XNLI和ANLI數據集上微調的零樣本分類模型,支持15種語言的自然語言推理任務。
大型語言模型 支持多種語言
D
mjwong
23
0
Clip Backdoor Rn50 Cc3m Badnets
MIT
這是一個預訓練的後門注入模型,用於研究對比語言圖像預訓練中的後門樣本檢測。
文本生成圖像 英語
C
hanxunh
16
0
Gte Multilingual Base Xnli Anli
Apache-2.0
該模型是基於Alibaba-NLP/gte-multilingual-base在XNLI和ANLI數據集上微調的版本,支持多語言自然語言推理任務。
文本分類 支持多種語言
G
mjwong
21
0
Gte Multilingual Base Xnli
Apache-2.0
該模型是基於Alibaba-NLP/gte-multilingual-base在XNLI數據集上微調的版本,支持多語言自然語言推理任務。
文本分類 支持多種語言
G
mjwong
58
0
Clip Vit Base Patch32 Lego Brick
MIT
基於CLIP模型微調的樂高積木圖像-文本匹配模型,專為識別樂高積木及其描述設計。
文本生成圖像 Transformers 英語
C
armaggheddon97
44
0
Conceptclip
MIT
ConceptCLIP是一個通過醫學概念增強的大規模視覺語言預訓練模型,適用於多種醫學影像模態,能在多種醫學影像任務中實現穩健性能。
圖像生成文本 Transformers 英語
C
JerrryNie
836
1
Modernbert Large Nli
Apache-2.0
基於ModernBERT-large模型,通過多任務微調優化的自然語言推理模型,在零樣本分類和NLI任務上表現優異。
大型語言模型 Transformers 支持多種語言
M
tasksource
61.52k
5
Modernbert Base Zeroshot V2.0
Apache-2.0
基於ModernBERT-base微調的零樣本分類器,高效快速且內存佔用低,適用於多種文本分類任務。
文本分類 Transformers
M
MoritzLaurer
261
17
Modernbert Large Zeroshot V2.0
Apache-2.0
基於ModernBERT-large微調的零樣本分類器,高效快速且內存佔用低,適用於多種文本分類任務。
大型語言模型 Transformers
M
MoritzLaurer
25.66k
47
Llm Jp Clip Vit Large Patch14
Apache-2.0
基於OpenCLIP框架訓練的日語CLIP模型,在14.5億日文圖文對數據集上訓練,支持零樣本圖像分類和圖文檢索任務
文本生成圖像 日語
L
llm-jp
254
1
Resnet50x64 Clip Gap.openai
Apache-2.0
基於ResNet50架構的CLIP模型圖像編碼器,具有64倍寬度擴展,使用全局平均池化(GAP)策略
圖像分類 Transformers
R
timm
107
0
Resnet50x16 Clip Gap.openai
Apache-2.0
基於CLIP框架的ResNet50x16變體模型,專注於圖像特徵提取
圖像分類 Transformers
R
timm
129
0
Resnet50x4 Clip Gap.openai
Apache-2.0
基於CLIP框架的ResNet50x4變體模型,專為圖像特徵提取設計
圖像分類 Transformers
R
timm
170
0
Resnet50 Clip Gap.openai
Apache-2.0
基於CLIP模型視覺編碼器部分的ResNet50變體,通過全局平均池化(GAP)提取圖像特徵
圖像分類 Transformers
R
timm
250
1
Resnet50 Clip Gap.cc12m
Apache-2.0
基於ResNet50架構的CLIP風格圖像編碼器,使用CC12M數據集訓練,通過全局平均池化(GAP)提取特徵
圖像分類 Transformers
R
timm
19
0
Vit Large Patch14 Clip 224.dfn2b
其他
基於CLIP架構的視覺變換器模型,專注於圖像特徵提取,由蘋果公司發佈。
圖像分類 Transformers
V
timm
178
0
Modernbert Large Zeroshot V1
MIT
基於ModernBERT-large微調的自然語言推理模型,專門用於零樣本分類任務
文本分類 Transformers 英語
M
r-f
54
2
Vit Large Patch14 Clip 224.laion2b
Apache-2.0
基於CLIP架構的視覺Transformer模型,專注於圖像特徵提取
圖像分類 Transformers
V
timm
502
0
Vit Huge Patch14 Clip 224.laion2b
Apache-2.0
基於CLIP框架的ViT-Huge視覺編碼器,使用laion2B數據集訓練,支持圖像特徵提取
圖像分類 Transformers
V
timm
1,969
0
Vit Base Patch32 Clip 224.laion2b
Apache-2.0
基於CLIP架構的視覺Transformer模型,專為圖像特徵提取設計,使用laion2B數據集訓練
圖像分類 Transformers
V
timm
83
0
Convnext Base.clip Laiona
Apache-2.0
基於CLIP框架的ConvNeXt Base模型,使用LAION-Aesthetic數據集訓練,適用於圖像特徵提取任務。
圖像分類 Transformers
C
timm
14
0
Modernbert Base Nli
Apache-2.0
ModernBERT 是一個在多任務源的自然語言推理(NLI)任務上微調的模型,擅長零樣本分類和長上下文推理。
大型語言模型 Transformers 支持多種語言
M
tasksource
1,867
20
Llm Jp Clip Vit Base Patch16
Apache-2.0
日語CLIP模型,基於OpenCLIP框架訓練,支持零樣本圖像分類任務
文本生成圖像 日語
L
llm-jp
40
1
Deberta Zero Shot Classification
MIT
基於DeBERTa-v3-base微調的零樣本文本分類模型,適用於標註數據稀缺的場景或快速原型開發。
文本分類 Transformers 英語
D
syedkhalid076
51
0
Microsoft Git Base
MIT
GIT是一個基於Transformer的生成式圖像轉文本模型,能夠將視覺內容轉換為文本描述。
圖像生成文本 支持多種語言
M
seckmaster
18
0
Aimv2 Large Patch14 224 Lit
AIMv2是一個採用多模態自迴歸目標預訓練的視覺模型系列,在多項多模態理解基準測試中表現優異。
圖像生成文本
A
apple
222
6
LLM2CLIP Openai L 14 224
Apache-2.0
LLM2CLIP是一種利用大型語言模型(LLM)釋放CLIP潛力的創新方法,通過對比學習框架提升文本判別性,突破原始CLIP文本編碼器的限制。
文本生成圖像 Safetensors
L
microsoft
108
5
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase