E

Eva02 Enormous Patch14 Clip 224.laion2b

timmによって開発
EVA-CLIPはCLIPアーキテクチャに基づく視覚-言語モデルで、ゼロショット画像分類タスクをサポートします。
ダウンロード数 38
リリース時間 : 12/26/2024

モデル概要

このモデルはCLIPアーキテクチャに基づく視覚-言語モデルで、画像とテキストの関係を理解し、ゼロショット画像分類などのタスクに適しています。

モデル特徴

ゼロショット学習
特定のタスクの訓練データがなくても分類可能なゼロショット画像分類をサポートします。
視覚-言語アラインメント
画像とテキストエンコーダの共同訓練により、視覚と言語モダリティのアラインメントを実現します。
高性能
複数のベンチマークデータセットで優れた性能を発揮し、高い分類精度を持ちます。

モデル能力

ゼロショット画像分類
画像-テキストマッチング
視覚-言語理解

使用事例

画像分類
ゼロショット画像分類
自然言語記述を使用して画像を分類し、特定のタスクの訓練データを必要としません。
視覚-言語タスク
画像-テキストマッチング
画像とテキスト記述が一致するかどうかを判断します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase