N

Nllb Clip Base Oc

visheratinによって開発
NLLB-CLIPはNLLBテキストエンコーダーとCLIP画像エンコーダーを統合した多言語視覚言語モデルで、201言語をサポート
ダウンロード数 371
リリース時間 : 10/7/2023

モデル概要

このモデルはNLLBモデルのテキストエンコード能力とCLIPの画像エンコード能力を組み合わせ、多言語視覚言語理解能力を拡張し、特に低リソース言語で優れた性能を発揮

モデル特徴

多言語サポート
Flores-200の201言語をサポート、多くの低リソース言語を含む
クロスモーダル理解
テキストと画像のエンコード能力を統合し、視覚言語アラインメントを実現
低リソース言語最適化
低リソース言語で最先端の成果を達成

モデル能力

多言語画像分類
クロスモーダル検索
ゼロショット学習

使用事例

多言語コンテンツ理解
多言語画像タグ付け
画像に対して複数言語の説明タグを生成
Crossmodal-3600データセットで優れた性能
クロスランゲージ画像検索
異なる言語クエリを使用して関連画像を検索
低リソース言語アプリケーション
低リソース言語画像分類
低リソース言語環境での画像分類
低リソース言語でSOTA性能を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase