# 文檔視覺問答

Mlcd Vit Bigg Patch14 448
MIT
MLCD-ViT-bigG是一款採用二維旋轉位置編碼(RoPE2D)增強的先進視覺Transformer模型,在文檔理解和視覺問答任務中表現卓越。
文字識別
M
DeepGlint-AI
1,517
3
Pixtral 12b Quantized.w8a8
Apache-2.0
基於mgoin/pixtral-12b的INT8量化版本,支持視覺-文本多模態任務,優化了推理效率
圖像生成文本 Transformers 英語
P
RedHatAI
309
1
Qwen2.5 VL 3B Instruct Quantized.w8a8
Apache-2.0
Qwen/Qwen2.5-VL-3B-Instruct的量化版本,支持視覺-文本輸入和文本輸出,權重量化為INT8,激活量化為INT8。
圖像生成文本 Transformers 英語
Q
RedHatAI
274
1
Vietable Donut Docvqa Demo
MIT
基於Donut模型針對越南語文檔問答(表格數據)進行微調的版本
問答系統 Transformers 其他
V
YuukiAsuna
16
1
Florence2 EntityExtraction
MIT
Florence-2 DocVQA 是基於 Microsoft Florence-2-large 模型微調的文檔視覺問答模型,專門用於處理文檔圖像中的問答任務。
圖像生成文本 Transformers 英語
F
jena-shreyas
23
0
Udop Large 512 300k
MIT
UDOP是一個統一處理視覺、文本和佈局的通用文檔處理模型,基於T5架構,適用於文檔AI任務。
圖像生成文本 Transformers
U
microsoft
264
32
Udop Large 512
MIT
UDOP是一個統一視覺、文本與佈局的通用文檔處理模型,基於T5架構,適用於文檔圖像分類、解析和視覺問答等任務。
圖像生成文本 Transformers
U
microsoft
193
5
CIVQA Impira QA EasyOCR
MIT
該模型是Impira模型的微調版本,專門用於處理捷克語發票的視覺問答任務。
文本生成圖像 Transformers
C
Sharka
74
0
Testdocumentquestionanswering
基於LayoutLMv2架構的文檔視覺問答模型,針對DocVQA任務進行微調
圖像生成文本 Transformers
T
Dhineshk
16
0
Layoutlmv3 Finetuned Docvqa
基於LayoutLMv3-base微調的文檔問答模型,適用於文檔視覺問答任務
圖像生成文本 Transformers
L
am-infoweb
22
3
Donut Base Finetuned Docvqa
基於Donut架構的文檔問答模型,能夠從圖像中提取文本信息並回答問題
圖像生成文本 Transformers
D
Xenova
114
16
Layoutlmv2 Base Uncased Finetuned Docvqa
基於LayoutLMv2架構的文檔視覺問答模型,專為文檔理解任務微調
文本生成圖像 Transformers
L
madiltalay
14
0
Layoutlmv2 Base Uncased Finetuned Docvqa
基於LayoutLMv2架構的文檔視覺問答模型,專門針對文檔理解任務進行微調
圖像生成文本 Transformers
L
hugginglaoda
16
0
Pix2struct Docvqa Base
Apache-2.0
Pix2Struct是一個圖像編碼器-文本解碼器模型,通過圖像-文本對訓練,支持多種任務,包括圖像描述生成和視覺問答。
圖像生成文本 Transformers 支持多種語言
P
google
8,601
37
Pix2struct Docvqa Large
Apache-2.0
Pix2Struct是基於圖像編碼器-文本解碼器架構的視覺語言模型,專門針對文檔視覺問答任務進行了微調
圖像生成文本 Transformers 支持多種語言
P
google
984
31
Layoutlmv2 Base Uncased Finetuned Docvqa V2
該模型是基於microsoft/layoutlmv2-base-uncased在文檔視覺問答任務上微調的版本,專注於處理文檔圖像中的文本和佈局信息。
圖像生成文本 Transformers
L
MariaK
54
3
Layoutlm Invoices
基於LayoutLM架構微調的文檔問答模型,專門處理發票等結構化文檔
文本生成圖像 Transformers 英語
L
faisalraza
100
7
Donut Base Finetuned Docvqa
MIT
Donut是一種無需OCR的文檔理解Transformer模型,基於DocVQA數據集微調,能夠直接從圖像中提取和理解文本信息。
圖像生成文本 Transformers
D
naver-clova-ix
167.80k
231
Layoutlmv2 Large Uncased Finetuned Infovqa
基於LayoutLMv2架構的文檔理解模型,針對InfoVQA任務進行微調
問答系統 Transformers
L
tiennvcs
16
2
Layoutlmv2 Large Uncased Finetuned Vi Infovqa
基於microsoft/layoutlmv2-large-uncased微調的文檔視覺問答模型,適用於越南語信息提取任務
文本生成圖像 Transformers
L
tiennvcs
16
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase