B

Blip2 Opt 2.7b

Salesforceによって開発
BLIP-2は画像エンコーダーと大規模言語モデルを組み合わせた視覚言語モデルで、画像からテキストを生成するタスクに使用されます。
ダウンロード数 867.78k
リリース時間 : 2/6/2023

モデル概要

BLIP-2モデルは、画像エンコーダーと言語モデルを凍結したまま、クエリ変換器を訓練して両者を橋渡しし、画像キャプション生成や視覚的質問応答などのタスクをサポートします。

モデル特徴

凍結事前学習モデル
画像エンコーダーと言語モデルを凍結したまま、クエリ変換器のみを訓練することで、事前学習モデルの能力を効果的に活用します。
マルチタスクサポート
画像キャプション生成、視覚的質問応答、画像ベースの対話など、様々なタスクをサポートします。
効率的な訓練
クエリ変換器を用いて異なるモダリティを橋渡しすることで、訓練コストを削減しつつ高性能を維持します。

モデル能力

画像キャプション生成
視覚的質問応答(VQA)
画像ベースの対話

使用事例

コンテンツ生成
自動画像キャプション
画像に対して記述的なテキストを生成し、アクセシビリティやコンテンツ管理に活用できます。
インテリジェントインタラクション
視覚的質問応答システム
ユーザーの画像内容に関する自然言語の質問に回答します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase