# 文檔問答

Qwenlong L1 32B GGUF
Apache-2.0
QwenLong-L1-32B 是專為長上下文推理設計的大語言模型,通過強化學習訓練,在多個長上下文問答基準測試中表現出色,能有效處理複雜的推理任務。
大型語言模型 Transformers
Q
Mungert
927
7
Donut Sroie Company Sample Demo
MIT
Donut 是一個基於 Transformer 的文檔理解模型,專門用於文檔問答任務。
問答系統 PyTorch 英語
D
Chan-yeong
22
0
Cogvlm2 Llama3 Chat 19B Int4
其他
CogVLM2是基於Meta-Llama-3-8B-Instruct構建的多模態對話模型,支持中英文,具備8K上下文長度和1344*1344分辨率圖像處理能力。
文本生成圖像 Transformers 英語
C
THUDM
467
28
Layoutlmv2 Base Uncased Finetuned Docvqa
該模型是基於Microsoft LayoutLMv2架構的文檔視覺問答(VQA)專用模型,通過微調適應文檔理解任務
文本生成圖像 Transformers
L
rogdevil
16
0
Sampel2 Docqa Layoutlmv3 Base
基於microsoft/layoutlmv2-base-uncased微調的文檔問答模型,具體訓練數據集未知
問答系統 Transformers
S
Tejagoud
10
0
Layout Qa Hparam Tuning
基於microsoft/layoutlmv2-base-uncased微調的文檔問答模型,適用於文檔佈局理解和問答任務
問答系統 Transformers
L
PrimWong
14
0
Lilt Document QA
MIT
LiLT是一個基於文檔視覺問答(DocVQA)任務的預訓練模型,專門用於處理英文文檔中的問答任務。
圖像生成文本 Transformers 英語
L
TusharGoel
80
3
Layoutlm Document Qa
MIT
這是一個針對文檔問答任務微調的多模態LayoutLM模型,能夠理解文檔中的文本和佈局信息來回答問題。
文本生成圖像 Transformers 英語
L
impira
26.10k
1,102
Bert Base Uncased Finetuned Docvqa
Apache-2.0
基於BERT基礎模型在文檔視覺問答(DocVQA)任務上微調的模型
問答系統 Transformers
B
tiennvcs
60
1
Layoutlmv2 Base Uncased Finetuned Docvqa
基於LayoutLMv2架構的文檔視覺問答模型,針對文檔理解任務進行了微調
文本生成圖像 Transformers
L
tiennvcs
983
14
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase