C

Clip Finetuned Csu P14 336 E3l57 L

kevinoliによって開発
このモデルはopenai/clip-vit-large-patch14-336をファインチューニングしたバージョンで、主に画像-テキストマッチングタスクに使用されます。
ダウンロード数 31
リリース時間 : 8/21/2024

モデル概要

CLIPアーキテクチャに基づく視覚-言語モデルで、ファインチューニング後は画像分類、画像検索などのクロスモーダルタスクに利用可能です。

モデル特徴

クロスモーダル理解
視覚情報とテキスト情報を同時に処理し、両者の間の意味的関連性を確立できます
高解像度処理
336x336ピクセルの入力解像度をサポートし、標準CLIPモデルよりも高解像度です
ファインチューニング最適化
特定のデータセットで3回のファインチューニングを行い、検証損失を0.47まで低下させました

モデル能力

画像-テキストマッチング
ゼロショット画像分類
クロスモーダル検索
画像特徴抽出

使用事例

コンテンツ検索
テキストベースの画像検索
自然言語の記述を使用して関連画像を検索
コンテンツモデレーション
違反コンテンツ検出
テキスト記述を通じて規定に合わない画像コンテンツを検出
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase