C

Cogvlm Grounding Generalist Hf

THUDMによって開発
CogVLMは強力なオープンソースの視覚言語モデル(VLM)で、複数のクロスモーダルベンチマークテストでSOTA性能を達成しています。
ダウンロード数 702
リリース時間 : 11/17/2023

モデル概要

CogVLMは視覚言語モデルで、画像に関連するテキスト記述を理解し生成することができ、マルチモーダル対話と物体位置特定をサポートします。

モデル特徴

マルチモーダル理解
視覚情報と言語情報を同時に処理し、画像とテキストの深い相互作用を実現できます
高性能
10の古典的なクロスモーダルベンチマークテストでSOTA性能を達成し、一部のタスクでPaLI - X 55Bを上回っています
物体位置特定能力
画像内で言及された物体の座標位置情報を提供できます
オープンソースモデル
コードとモデルウェイトが公開されており、研究やアプリケーションに便利です

モデル能力

画像記述生成
視覚質問応答
マルチモーダル対話
物体検出と位置特定
クロスモーダル理解

使用事例

画像理解
自動画像注釈
画像に詳細な記述テキストを生成します
COCO captioningなどのベンチマークテストで優れた成績を収めています
視覚質問応答
画像内容に関する自然言語の質問に答えます
VQAv2、OKVQAなどのベンチマークテストで2位にランクインしています
人機インタラクション
マルチモーダル対話
画像内容に基づく自然言語対話を行います
複雑な画像関連の対話インタラクションをサポートします
コンピュータビジョン支援
物体位置特定
画像内の物体を識別し座標位置を提供します
物体の境界ボックス座標[[x0,y0,x1,y1]]を出力できます
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase