# マルチモーダル対照学習

Eva02 Enormous Patch14 Clip 224.laion2b
MIT
EVA-CLIPはCLIPアーキテクチャに基づく視覚-言語モデルで、ゼロショット画像分類タスクをサポートします。
テキスト生成画像
E
timm
38
0
Fashion Embedder
MIT
FashionCLIPはCLIPをベースにした視覚言語モデルで、ファッション分野に特化してファインチューニングされており、汎用的なファッション製品の特徴表現を生成できます。
テキスト生成画像 Transformers 英語
F
McClain
58
0
Vit B 16 SigLIP
Apache-2.0
WebLIデータセットで訓練されたSigLIP(Sigmoid Loss for Language Image Pre-training)モデルで、ゼロショット画像分類タスクに使用されます。
テキスト生成画像
V
timm
27.77k
31
FLIP Base 32
Apache-2.0
これはCLIPアーキテクチャに基づく視覚言語モデルで、特に顔画像に対して8000万枚の画像で追加学習されています。
マルチモーダル融合 Transformers
F
FLIP-dataset
16
0
CLIP ViT G 14 Laion2b S34b B88k
MIT
LAION-2Bデータセットで訓練されたCLIP ViT-g/14モデル、ゼロショット画像分類と画像テキスト検索タスクをサポート
テキスト生成画像
C
laion
76.65k
24
Xclip Base Patch16 Zero Shot
MIT
X-CLIPはCLIPのミニマルな拡張で、汎用的な動画と言語の理解のために設計されており、(動画、テキスト)ペアで対照的に訓練され、ゼロショット、少数ショット、または完全教師ありの動画分類や動画-テキスト検索などのタスクに適しています。
テキスト生成ビデオ Transformers 英語
X
microsoft
5,045
24
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase