O

Otpensource Vision

hateslopacademyによって開発
Bllossom/llama-3.2-Korean-Bllossom-AICA-5Bをベースに訓練された視覚言語モデルで、韓国語と英語をサポートし、ファッション分野の画像からテキストへの変換やテキスト分類タスクに特化しています。
ダウンロード数 14
リリース時間 : 1/25/2025

モデル概要

otpensource-visionは視覚と言語能力を組み合わせたマルチモーダルモデルで、画像中のファッション要素を分析し構造化されたテキスト記述を生成できると同時に、純粋なテキストの自然言語処理タスクもサポートします。

モデル特徴

多言語視覚理解
韓国語と英語の視覚言語処理をサポートし、画像からファッション関連情報を抽出可能
ファッション分野最適化
専門的なファッションデータセットで訓練されており、服装カテゴリ、色、季節などのファッション要素の分析に優れる
構造化出力
JSON形式の構造化出力を生成可能で、システム統合やさらなる処理が容易
商用フレンドリーライセンス
CC-BY-4.0ライセンスを採用しており、商用利用が許可されている

モデル能力

画像からテキストへ
ファッション要素分析
多言語テキスト生成
感情分析
テキスト分類

使用事例

電子商取引
商品自動タグ付け
商品画像を自動分析し、カテゴリ、色などの情報を含む構造化された記述を生成
JSON形式の商品情報を生成可能
ファッション推薦システム
視覚分析に基づき、ユーザーにスタイルが合うファッションアイテムを推薦
コンテンツ生成
ソーシャルメディアコンテンツ作成
ファッション画像に基づき記述的なテキストコンテンツを自動生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase