B

Blip2 Opt 6.7b Coco

Salesforceによって開発
BLIP-2は画像エンコーダーと大規模言語モデルを組み合わせた視覚言語モデルで、画像からテキスト生成や視覚的質問応答タスクに使用されます。
ダウンロード数 216.79k
リリース時間 : 2/7/2023

モデル概要

BLIP-2モデルは凍結された画像エンコーダーと大規模言語モデル(OPT-6.7b)を採用し、クエリ変換器(Q-Former)で両者を橋渡しすることで、効率的な視覚言語事前学習を実現しています。

モデル特徴

効率的なクロスモーダル学習
事前学習済みの画像エンコーダーと言語モデルを凍結し、軽量なクエリ変換器のみを訓練することで、効率的なクロスモーダル学習を実現
多機能アプリケーション
画像キャプション生成、視覚的質問応答、画像ベースの対話など、様々なタスクをサポート
大規模事前学習
OPT-6.7b大規模言語モデルとCLIP画像エンコーダーを基盤としており、強力な表現能力を備えている

モデル能力

画像からテキスト生成
視覚的質問応答
画像ベースの対話
クロスモーダル理解

使用事例

コンテンツ生成
自動画像キャプション
画像に対して自然言語の説明を生成
視覚障害者支援やコンテンツタグ付けに利用可能
インテリジェントインタラクション
視覚的質問応答システム
画像内容に関する自然言語質問に回答
教育やカスタマーサポートなどのシナリオで利用可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase