# ゼロショット分類

Clip Vitl14 Test Time Registers
MIT
OpenCLIP-ViT-L-14モデルをベースに、テスト時レジスタ技術を導入し、モデルの解釈可能性と下流タスクの性能を向上させます。
テキスト生成画像 Transformers
C
amildravid4292
236
0
The Teacher V 2
これはゼロショット分類タスクに使用されるtransformersモデルで、大量のラベル付きデータを必要とせずにテキストを分類できます。
テキスト分類 Transformers
T
shiviklabs
172
0
Clip Vitb16 Test Time Registers
OpenCLIP - ViT - B - 16アーキテクチャに基づく視覚言語モデルで、テスト時レジスタを導入して内部表現を最適化し、特徴マップのアーチファクト問題を解決します。
テキスト生成画像 Transformers
C
amildravid4292
517
0
Cropvision CLIP
CLIPアーキテクチャを基にファインチューニングされた視覚言語モデルで、植物病害のゼロショット分類に特化
画像分類 Safetensors 英語
C
EduFalcao
38
0
Industry Project V2
Apache-2.0
Mistralアーキテクチャに基づいて最適化された命令微調整モデルで、ゼロショット分類タスクに適しています。
大規模言語モデル
I
omsh97
58
0
Fg Clip Large
Apache-2.0
FG-CLIPは細粒度視覚とテキストアラインメントモデルで、2段階のトレーニングによりグローバルおよびリージョンレベルの画像テキストアラインメントを実現し、細粒度視覚理解能力を向上させます。
マルチモーダルアライメント Transformers 英語
F
qihoo360
538
3
Smartshot Zeroshot Finetuned V0.2.0
MoritzLaurer/deberta-v3-base-zeroshot-v2.0-cをベースにファインチューニングしたゼロショット分類モデル、NLIフレームワークのSmartShot手法でトレーニング
テキスト分類 英語
S
gincioks
197
0
Smartshot Zeroshot Finetuned V0.1.2
MIT
roberta-base-zeroshot-v2.0-cをベースにSmartShot手法と合成データで性能向上を図ったゼロショット分類モデル
テキスト分類 その他
S
gincioks
119
0
Bge Reranker V2 M3 Q5 K M GGUF
Apache-2.0
このモデルはggml.aiのGGUF-my-repoスペースで、llama.cppを使用してBAAI/bge-reranker-v2-m3から変換されたGGUF形式のモデルで、主にテキスト分類タスクに使用されます。
テキスト埋め込み その他
B
pyarn
31
1
Marfin Emotion
Apache-2.0
mDeBERTa-v3をファインチューニングした感情検出モデルで、インドネシア語と英語の感情分類をサポート
テキスト分類 Transformers 複数言語対応
M
MarfinF
185
0
Sail Clip Hendrix 10epochs
openai/clip-vit-large-patch14をベースにファインチューニングした視覚言語モデル、10エポックの訓練を経て
テキスト生成画像 Transformers
S
cringgaard
49
0
Git RSCLIP
Apache-2.0
Git-RSCLIPはGit-10Mデータセットで事前学習された視覚-言語モデルで、リモートセンシング画像のマルチモーダル理解に特化しています。
テキスト生成画像 Safetensors
G
lcybuaa
59.37k
4
Marqo Fashionsiglip ST
Apache-2.0
Marqo-FashionSigLIPはファッション製品検索に最適化された多モーダル埋め込みモデルで、FashionCLIPと比較してMRRとリコール率で57%向上しています。
画像生成テキスト Transformers 英語
M
pySilver
3,586
0
Drama Large Xnli Anli
facebook/drama-largeをXNLIとANLIデータセットでファインチューニングしたゼロショット分類モデルで、15言語の自然言語推論タスクをサポートします。
大規模言語モデル 複数言語対応
D
mjwong
23
0
Clip Backdoor Rn50 Cc3m Badnets
MIT
これは事前学習済みのバックドア注入モデルで、コントラスティブ言語画像事前学習におけるバックドアサンプル検出の研究に使用されます。
テキスト生成画像 英語
C
hanxunh
16
0
Gte Multilingual Base Xnli Anli
Apache-2.0
このモデルはAlibaba-NLP/gte-multilingual-baseをXNLIとANLIデータセットでファインチューニングしたバージョンで、多言語自然言語推論タスクをサポートします。
テキスト分類 複数言語対応
G
mjwong
21
0
Gte Multilingual Base Xnli
Apache-2.0
このモデルはAlibaba-NLP/gte-multilingual-baseをXNLIデータセットでファインチューニングしたバージョンで、多言語自然言語推論タスクをサポートします。
テキスト分類 複数言語対応
G
mjwong
58
0
Clip Vit Base Patch32 Lego Brick
MIT
CLIPモデルをファインチューニングしたレゴブロックの画像-テキストマッチングモデルで、レゴブロックとその説明を識別するために設計されています。
テキスト生成画像 Transformers 英語
C
armaggheddon97
44
0
Conceptclip
MIT
ConceptCLIPは医学的概念を強化した大規模視覚言語事前学習モデルで、様々な医療画像モダリティに対応し、多様な医療画像タスクで堅牢な性能を発揮します。
画像生成テキスト Transformers 英語
C
JerrryNie
836
1
Modernbert Large Nli
Apache-2.0
ModernBERT-largeモデルをベースに、マルチタスクファインチューニングで最適化された自然言語推論モデルで、ゼロショット分類とNLIタスクで優れた性能を発揮します。
大規模言語モデル Transformers 複数言語対応
M
tasksource
61.52k
5
Modernbert Base Zeroshot V2.0
Apache-2.0
ModernBERT-baseをファインチューニングしたゼロショット分類器で、効率的かつ高速でメモリ使用量が少なく、様々なテキスト分類タスクに適しています。
テキスト分類 Transformers
M
MoritzLaurer
261
17
Modernbert Large Zeroshot V2.0
Apache-2.0
ModernBERT-largeをファインチューニングしたゼロショット分類器で、効率的で高速かつメモリ使用量が少なく、さまざまなテキスト分類タスクに適しています。
大規模言語モデル Transformers
M
MoritzLaurer
25.66k
47
Llm Jp Clip Vit Large Patch14
Apache-2.0
OpenCLIPフレームワークでトレーニングされた日本語CLIPモデルで、14.5億の日本語画像テキストペアデータセットでトレーニングされ、ゼロショット画像分類と画像テキスト検索タスクをサポートします
テキスト生成画像 日本語
L
llm-jp
254
1
Resnet50x64 Clip Gap.openai
Apache-2.0
ResNet50アーキテクチャに基づくCLIPモデルの画像エンコーダー、64倍の幅拡張を備え、グローバル平均プーリング(GAP)戦略を使用
画像分類 Transformers
R
timm
107
0
Resnet50x16 Clip Gap.openai
Apache-2.0
CLIPフレームワークに基づくResNet50x16バリアントモデル、画像特徴抽出に特化
画像分類 Transformers
R
timm
129
0
Resnet50x4 Clip Gap.openai
Apache-2.0
CLIPフレームワークに基づくResNet50x4バリアントモデルで、画像特徴抽出用に設計
画像分類 Transformers
R
timm
170
0
Resnet50 Clip Gap.openai
Apache-2.0
CLIPモデルの視覚エンコーダ部分に基づくResNet50バリアントで、グローバル平均プーリング(GAP)により画像特徴を抽出
画像分類 Transformers
R
timm
250
1
Resnet50 Clip Gap.cc12m
Apache-2.0
ResNet50アーキテクチャに基づくCLIPスタイルの画像エンコーダー、CC12Mデータセットでトレーニングされ、グローバル平均プーリング(GAP)で特徴を抽出
画像分類 Transformers
R
timm
19
0
Vit Large Patch14 Clip 224.dfn2b
その他
CLIPアーキテクチャに基づく視覚トランスフォーマーモデルで、画像特徴抽出に特化しており、Apple社によってリリースされました。
画像分類 Transformers
V
timm
178
0
Modernbert Large Zeroshot V1
MIT
ModernBERT-largeをファインチューニングした自然言語推論モデルで、ゼロショット分類タスク専用
テキスト分類 Transformers 英語
M
r-f
54
2
Vit Large Patch14 Clip 224.laion2b
Apache-2.0
CLIPアーキテクチャに基づく視覚Transformerモデル、画像特徴抽出に特化
画像分類 Transformers
V
timm
502
0
Vit Huge Patch14 Clip 224.laion2b
Apache-2.0
CLIPフレームワークに基づくViT-Huge視覚エンコーダ、laion2Bデータセットでトレーニング済み、画像特徴抽出をサポート
画像分類 Transformers
V
timm
1,969
0
Vit Base Patch32 Clip 224.laion2b
Apache-2.0
CLIPアーキテクチャに基づく視覚Transformerモデル、画像特徴抽出用に設計、laion2Bデータセットで学習
画像分類 Transformers
V
timm
83
0
Convnext Base.clip Laiona
Apache-2.0
CLIPフレームワークに基づくConvNeXt Baseモデルで、LAION-Aestheticデータセットでトレーニングされ、画像特徴抽出タスクに適しています。
画像分類 Transformers
C
timm
14
0
Modernbert Base Nli
Apache-2.0
ModernBERTはマルチタスクソースの自然言語推論(NLI)タスクでファインチューニングされたモデルで、ゼロショット分類と長文脈推論に優れています。
大規模言語モデル Transformers 複数言語対応
M
tasksource
1,867
20
Llm Jp Clip Vit Base Patch16
Apache-2.0
日本語CLIPモデル、OpenCLIPフレームワークで訓練され、ゼロショット画像分類タスクをサポート
テキスト生成画像 日本語
L
llm-jp
40
1
Deberta Zero Shot Classification
MIT
DeBERTa-v3-baseをファインチューニングしたゼロショットテキスト分類モデルで、アノテーションデータが不足しているシナリオや迅速なプロトタイピングに適しています。
テキスト分類 Transformers 英語
D
syedkhalid076
51
0
Microsoft Git Base
MIT
GITはTransformerベースの生成的画像テキスト変換モデルで、視覚コンテンツをテキスト記述に変換できます。
画像生成テキスト 複数言語対応
M
seckmaster
18
0
Aimv2 Large Patch14 224 Lit
AIMv2はマルチモーダル自己回帰目標で事前学習された視覚モデルシリーズで、多くのマルチモーダル理解ベンチマークで優れた性能を発揮します。
画像生成テキスト
A
apple
222
6
LLM2CLIP Openai L 14 224
Apache-2.0
LLM2CLIPは、大規模言語モデル(LLM)を活用してCLIPの潜在能力を解放する革新的な手法で、対照学習フレームワークを通じてテキスト識別性を向上させ、元のCLIPテキストエンコーダーの制限を突破します。
テキスト生成画像 Safetensors
L
microsoft
108
5
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase