F

Fashion Clip

patrickjohncyhによって開発
FashionCLIPはCLIPを基に開発された視覚言語モデルで、ファッション分野に特化してファインチューニングされ、汎用的な製品表現を生成可能です。
ダウンロード数 3.8M
リリース時間 : 2/21/2023

モデル概要

このモデルは80万点のファッション製品を含むデータセットでコントラスト学習により訓練され、ファッション概念に対する汎用的な製品表現を生成することを目的としており、新しいデータセットやタスクへのゼロショット転移をサポートします。

モデル特徴

ファッション分野最適化
80万点のファッション製品を含む専門データセットでファインチューニングされ、ファッション関連タスクの性能が大幅に向上
ゼロショット転移能力
追加訓練なしで新しいファッションデータセットやタスクに適応可能
マルチモーダル理解
ファッション製品の視覚的特徴とテキスト記述を同時に理解
性能向上
laion/CLIP-ViT-B-32-laion2B-s34B-b79Kチェックポイントを基にファインチューニングされ、元のOpenAI CLIPよりも優れた性能

モデル能力

ファッション製品画像分類
ファッション製品テキストマッチング
クロスモーダル検索
ゼロショット学習

使用事例

電子商取引
製品検索
テキストクエリで関連するファッション製品画像をマッチング
検索精度とユーザー体験の向上
製品推薦
視覚的・テキスト的特徴に基づく類似製品推薦
パーソナライズド推薦効果の強化
ファッション分析
トレンド予測
ファッション製品の視覚的・テキスト的特徴の変化を分析
新興ファッショントレンドの識別
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase