N

Nllb Clip Large Oc

visheratinによって開発
NLLB-CLIPはNLLBモデルのテキストエンコーダとCLIP画像エンコーダを統合した多言語視覚言語モデルで、201言語をサポートしています。
ダウンロード数 28
リリース時間 : 10/7/2023

モデル概要

このモデルはNLLBのテキストエンコード能力とCLIPの画像エンコード能力を組み合わせ、Flores-200の201言語サポートを拡張し、特に低リソース言語で優れた性能を発揮します。

モデル特徴

多言語サポート
Flores-200の201言語をサポートし、特に低リソース言語で優れた性能を発揮します。
クロスモーダル能力
テキストと画像のエンコード能力を統合し、ゼロショット画像分類を実現します。
高性能
Crossmodal-3600データセットで新たな技術基準を確立しました。

モデル能力

ゼロショット画像分類
多言語テキスト理解
クロスモーダル検索

使用事例

多言語画像分類
多言語画像タグ付け
サポート言語を使用して画像を分類・タグ付けします。
低リソース言語で優れた性能を発揮します。
クロスモーダル検索
画像-テキストマッチング
多言語環境で画像とテキスト記述をマッチングします。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase