# マルチモーダル特徴抽出

Openvision Vit Base Patch16 384
Apache-2.0
OpenVisionは、完全にオープンでコスト効率の高い高度なビジョンエンコーダのファミリーで、マルチモーダル学習における画像特徴抽出に焦点を当てています。
マルチモーダル融合
O
UCSC-VLAA
43
2
CLIP ViT L Rho50 K1 Constrained FARE2
MIT
openai/clip-vit-large-patch14をベースに微調整した特徴抽出モデルで、画像とテキストエンコーダを最適化しました。
マルチモーダル融合 Transformers
C
LEAF-CLIP
253
0
Moonvit SO 400M
MIT
MoonViTはネイティブ解像度のビジュアルエンコーダーで、SigLIP-SO-400Mを基に初期化および継続的な事前学習を行い、画像特徴抽出タスクに適しています。
画像の拡張 Transformers
M
moonshotai
275
12
Mlcd Vit Bigg Patch14 448
MIT
MLCD-ViT-bigGは2次元回転位置エンコーディング(RoPE2D)を採用した先進的な視覚Transformerモデルで、ドキュメント理解と視覚質問応答タスクで優れた性能を発揮します。
文字認識
M
DeepGlint-AI
1,517
3
Vit Large Patch14 Clip 224.dfn2b
その他
CLIPアーキテクチャに基づく視覚トランスフォーマーモデルで、画像特徴抽出に特化しており、Apple社によってリリースされました。
画像分類 Transformers
V
timm
178
0
Internvit 300M 448px V2 5
MIT
InternViT-300M-448px-V2_5はInternViT-300M-448pxの大幅なアップグレード版で、ViTの増分学習とNTP損失により視覚的特徴抽出能力が向上し、特に多言語OCRデータや数学的図表などの複雑なシーンに優れています。
テキスト生成画像
I
OpenGVLab
23.29k
33
Internvit 6B 448px V1 0
MIT
InternViT-6B-448px-V1-0は視覚基盤モデルで、画像特徴抽出に特化し、448x448解像度をサポート、OCR能力と中国語会話サポートを強化しています。
テキスト生成画像 Transformers
I
OpenGVLab
24
10
Coin Clip Vit Base Patch32
Apache-2.0
CLIPをファインチューニングしたコイン画像検索モデルで、コイン画像の特徴抽出能力を強化
画像生成テキスト Transformers
C
breezedeus
886
4
Eva02 Large Patch14 224.mim M38m
MIT
EVA02特徴/表現モデル、マスク画像モデリングによりMerged-38Mデータセットで事前学習済み、画像分類と特徴抽出タスクに適しています。
画像分類 Transformers
E
timm
571
0
Taiyi CLIP RoBERTa 326M ViT H Chinese
Apache-2.0
初のオープンソース中国語CLIPモデル、1.23億の画像テキストペアで事前学習、テキストエンコーダはRoBERTa-largeアーキテクチャを採用。
テキスト生成画像 Transformers 中国語
T
IDEA-CCNL
108
10
Taiyi CLIP Roberta Large 326M Chinese
Apache-2.0
初のオープンソース中国語CLIPモデル、1.23億の画像テキストペアで事前学習済み、中国語の画像テキスト特徴抽出とゼロショット分類をサポート
テキスト生成画像 Transformers 中国語
T
IDEA-CCNL
10.37k
39
Taiyi CLIP Roberta 102M Chinese
Apache-2.0
初めてオープンソース化された中国語CLIPモデルで、1億2300万の画像テキストペアで事前学習されており、テキストエンコーダはRoBERTa-baseアーキテクチャを採用しています。
テキスト生成画像 Transformers 中国語
T
IDEA-CCNL
558
51
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase