Cogvlm Grounding Generalist Hf
CogVLMは強力なオープンソースの視覚言語モデル(VLM)で、複数のクロスモーダルベンチマークテストでSOTA性能を達成しています。
ダウンロード数 702
リリース時間 : 11/17/2023
モデル概要
CogVLMは視覚言語モデルで、画像に関連するテキスト記述を理解し生成することができ、マルチモーダル対話と物体位置特定をサポートします。
モデル特徴
マルチモーダル理解
視覚情報と言語情報を同時に処理し、画像とテキストの深い相互作用を実現できます
高性能
10の古典的なクロスモーダルベンチマークテストでSOTA性能を達成し、一部のタスクでPaLI - X 55Bを上回っています
物体位置特定能力
画像内で言及された物体の座標位置情報を提供できます
オープンソースモデル
コードとモデルウェイトが公開されており、研究やアプリケーションに便利です
モデル能力
画像記述生成
視覚質問応答
マルチモーダル対話
物体検出と位置特定
クロスモーダル理解
使用事例
画像理解
自動画像注釈
画像に詳細な記述テキストを生成します
COCO captioningなどのベンチマークテストで優れた成績を収めています
視覚質問応答
画像内容に関する自然言語の質問に答えます
VQAv2、OKVQAなどのベンチマークテストで2位にランクインしています
人機インタラクション
マルチモーダル対話
画像内容に基づく自然言語対話を行います
複雑な画像関連の対話インタラクションをサポートします
コンピュータビジョン支援
物体位置特定
画像内の物体を識別し座標位置を提供します
物体の境界ボックス座標[[x0,y0,x1,y1]]を出力できます
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98