# 視覚的質問応答の最適化

VL Reasoner 7B
Apache-2.0
VL-Reasoner-7B は GRPO-SSR 技術に基づいてトレーニングされたマルチモーダル推論モデルで、複数のマルチモーダル推論ベンチマークテストで優れたパフォーマンスを発揮します。
テキスト生成画像 Transformers 英語
V
TIGER-Lab
126
1
Phi 4 Multimodal Instruct
MIT
Phi-4-multimodal-instructは、軽量でオープンソースのマルチモーダル基盤モデルで、Phi-3.5と4.0モデルの言語、視覚、音声研究データを統合しています。テキスト、画像、音声入力をサポートし、テキスト出力を生成し、128Kトークンのコンテキスト長を備えています。
テキスト生成オーディオ Transformers 複数言語対応
P
microsoft
584.02k
1,329
Spec Vision V1
MIT
Spec-Vision-V1は、軽量で最先端のオープンソースマルチモーダルモデルで、視覚とテキストデータの深い統合のために構築され、128Kの文脈長をサポートします。
テキスト生成画像 Transformers その他
S
SVECTOR-CORPORATION
17
1
Florence 2 VLM Doc VQA
microsoft/Florence-2-base-ftを基に微調整した視覚的質問応答(VQA)専用バージョンで、画像内容を解釈し関連する質問に回答可能
テキスト生成画像 Transformers 英語
F
prithivMLmods
69
4
H2ovl Mississippi 2b
Apache-2.0
H2OVL-Mississippi-2BはH2O.aiが開発した高性能な汎用視覚言語モデルで、幅広いマルチモーダルタスクを処理できます。このモデルは20億のパラメータを持ち、画像キャプション生成、視覚的質問応答(VQA)、文書理解などのタスクで優れた性能を発揮します。
画像生成テキスト Transformers 英語
H
h2oai
91.28k
34
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase