C

Clip Fa Vision

SajjadAyoubiによって開発
CLIPfaはOpenAIのCLIPモデルのペルシア語版で、対比学習によってペルシア語のテキストと画像表現を結びつけます。
ダウンロード数 43
リリース時間 : 3/2/2022

モデル概要

対比学習に基づくマルチモーダルモデルで、ペルシア語のテキストと画像を共有のベクトル空間にマッピングし、クロスモーダル検索とマッチングを実現します。

モデル特徴

ペルシア語適合
FarahaniのRoBERTa - faをテキストエンコーダとして使用し、ペルシア語のテキスト理解を特別に最適化します。
軽量トレーニング
わずか40万組のデータ(原版の1/10)で有効なトレーニングを完了します。
双モーダルアライメント
ビジョンとテキストエンコーダが768次元の共有ベクトル空間を出力します。

モデル能力

ペルシア語の画像とテキストのマッチング
クロスモーダルベクトル検索
画像の意味検索
テキストによる画像分類

使用事例

マルチメディア検索
ペルシア語の画像検索
ペルシア語で説明して関連する画像を検索します。
2.5万枚の画像コレクションで検索結果を表示します。
コンテンツ審査
多言語の違反コンテンツ識別
ペルシア語のテキスト説明を通じて違反画像を検出します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase