G

Git Large Vqav2

microsoftによって開発
GITはCLIP画像トークンとテキストトークンに基づくトランスフォーマーデコーダーで、大量の画像-テキストペアで訓練され、視覚的質問応答などのタスクに適しています。
ダウンロード数 401
リリース時間 : 1/2/2023

モデル概要

GITモデルは教師強制方式で画像とテキストペアで訓練され、次のテキストトークンを予測でき、画像/動画キャプション生成、視覚的質問応答、画像分類などのタスクに適用可能です。

モデル特徴

マルチモーダル理解
画像とテキスト情報を同時に処理し、クロスモーダル理解を実現できます。
生成的モデル
従来の分類方法ではなく、生成的方法でテキストトークンを予測します。
双方向注意メカニズム
画像トークンには双方向注意を、テキストトークンには因果的注意を使用します。

モデル能力

画像理解
視覚的質問応答
画像キャプション生成
動画キャプション生成
画像分類(テキスト生成を通じて)

使用事例

視覚的質問応答
画像内容の質問応答
画像内容に関する自然言語質問に回答
VQAv2データセットで良好なパフォーマンス
コンテンツ生成
画像キャプション生成
画像の記述テキストを生成
動画キャプション生成
動画内容の記述テキストを生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase