# ビジュアル言語モデル

Vjepa2 Vitl Fpc64 256
MIT
V-JEPA 2はMetaのFAIRチームが開発した最先端のビデオ理解モデルで、VJEPAの事前学習目標を拡張し、業界をリードするビデオ理解能力を備えています。
動画処理 Transformers
V
facebook
109
27
Vlm2vec V2.0
Apache-2.0
VLM2Vec-V2は、大規模マルチモーダル埋め込みタスクに使用されるモデルで、ビジュアル言語モデルを学習することで、ビデオ、画像、ビジュアルドキュメントなどのマルチモーダルデータに対してより強力な埋め込み能力を提供します。
マルチモーダル融合 Transformers 英語
V
VLM2Vec
2,527
6
UI TARS 1.5 7B 6bit
Apache-2.0
UI-TARS-1.5-7B-6bitは、MLX形式に変換されたビジュアル言語モデルで、画像理解とテキスト生成タスクをサポートします。
画像生成テキスト Transformers 複数言語対応
U
mlx-community
1,110
3
Olmocr 7B Thai V2
MIT
最適化されたolmOCRモデルで、タイ語テキスト認識の精度向上に特化し、多言語と表形式をサポートします。
文字認識 Safetensors その他
O
Adun
917
4
Qwen Vl 2.5 3B Finetuned Cheque
ビジュアル言語モデルで、小切手画像から構造化された金融情報を抽出し、小切手番号、受取人、金額、発行日などの重要な情報を含むJSON形式の出力を生成することに特化しています。
画像生成テキスト Transformers 英語
Q
AJNG
170
1
Libra Llava Med V1.5 Mistral 7b
Apache-2.0
LLaVA-Medは生物医学アプリケーション向けに最適化されたオープンソースの大規模ビジュアル言語モデルで、LLaVAフレームワークを基盤とし、カリキュラム学習で強化され、オープンエンド生物医学QAタスク向けにファインチューニングされています。
画像生成テキスト Transformers
L
X-iZhang
180
1
Xgen Mm Vid Phi3 Mini R V1.5 32tokens 8frames
xGen-MM-Vid (BLIP-3-Video) は、ビデオ内容を理解するために特別に設計された、明示的な時間エンコーダーを備えた高効率でコンパクトなビジュアル言語モデルです。
ビデオ生成テキスト Safetensors 英語
X
Salesforce
441
3
Pixtral 12b
PixtralはMistralアーキテクチャに基づくマルチモーダルモデルで、画像とテキストの入力を処理し、テキスト出力を生成することができます。
画像生成テキスト Transformers
P
saujasv
2,168
0
Idefics2 Raven Finetuned
Apache-2.0
レイヴン推理行列問題を解くために特別に設計されたマルチモーダルモデルで、ビジュアル - 言語基礎モデルに基づいて構築され、検証セットの正解率は91%に達します。
マルチモーダル融合 Transformers 複数言語対応
I
HuggingFaceM4
235
4
Pix2struct Ai2d Large
Apache-2.0
Pix2Structは、ビジュアル質問応答タスクで微調整された大規模な画像からテキストへのモデルで、科学グラフのビジュアル質問応答に特化しています。
テキスト生成画像 Transformers 複数言語対応
P
google
28
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase