2025年最佳 474 款問答系統工具

Distilbert Base Cased Distilled Squad
Apache-2.0
DistilBERT是BERT的輕量級蒸餾版本,參數量減少40%,速度提升60%,保留95%以上性能。本模型是在SQuAD v1.1數據集上微調的問答專用版本。
問答系統 英語
D
distilbert
220.76k
244
Distilbert Base Uncased Distilled Squad
Apache-2.0
DistilBERT是BERT的輕量級蒸餾版本,參數量減少40%,速度提升60%,在GLUE基準測試中保持BERT 95%以上的性能。本模型專為問答任務微調。
問答系統 Transformers 英語
D
distilbert
154.39k
115
Tapas Large Finetuned Wtq
Apache-2.0
TAPAS是基於BERT架構的表格問答模型,通過自監督方式在維基百科表格數據上預訓練,支持對錶格內容進行自然語言問答
問答系統 Transformers 英語
T
google
124.85k
141
T5 Base Question Generator
基於t5-base的問答生成模型,輸入答案和上下文,輸出相應問題
問答系統 Transformers
T
iarfmoose
122.74k
57
Bert Base Cased Qa Evaluator
基於BERT-base-cased的問答對評估模型,用於判斷問題和答案是否語義相關
問答系統
B
iarfmoose
122.54k
9
Tiny Doc Qa Vision Encoder Decoder
MIT
一個基於MIT許可證的文檔問答模型,主要用於測試目的。
問答系統 Transformers
T
fxmarty
41.08k
16
Dpr Question Encoder Single Nq Base
DPR(密集段落檢索)是用於開放領域問答研究的工具和模型。該模型是基於BERT的問題編碼器,使用自然問題(NQ)數據集訓練。
問答系統 Transformers 英語
D
facebook
32.90k
30
Mobilebert Uncased Squad V2
MIT
MobileBERT是BERT_LARGE的輕量化版本,在SQuAD2.0數據集上微調而成的問答系統模型。
問答系統 Transformers 英語
M
csarron
29.11k
7
Tapas Base Finetuned Wtq
Apache-2.0
TAPAS是一個基於Transformer的表格問答模型,通過自監督學習在維基百科表格數據上預訓練,並在WTQ等數據集上微調。
問答系統 Transformers 英語
T
google
23.03k
217
Dpr Question Encoder Multiset Base
基於BERT的密集段落檢索(DPR)問題編碼器,用於開放領域問答研究,在多個QA數據集上訓練
問答系統 Transformers 英語
D
facebook
17.51k
4
Roberta Base On Cuad
MIT
基於RoBERTa-base模型在法律合同問答任務上微調的模型,專為法律合同審查設計
問答系統 Transformers 英語
R
Rakib
14.79k
8
Mdeberta V3 Base Squad2
MIT
基於mDeBERTa-v3-base的多語言問答模型,在SQuAD2.0數據集上進行了微調
問答系統 Transformers 支持多種語言
M
timpal0l
14.06k
246
T5 Base Qg Hl
MIT
基於T5-base架構訓練的答案感知問題生成模型,能夠根據文本中的高亮答案片段生成相應問題。
問答系統 Transformers
T
valhalla
11.65k
12
T5 Base E2e Qg
MIT
基於T5-base訓練的端到端問題生成模型,能夠從輸入文本中自動生成相關問題。
問答系統 Transformers
T
valhalla
10.58k
29
Bert Large Finetuned Squad2
基於bert-large-uncased架構並在SQuAD2.0數據集上微調的問答模型
問答系統 英語
B
phiyodr
9,892
0
Electra Large Discriminator Squad2 512
這是一個基於ELECTRA架構的大規模判別器模型,專門針對問答任務在SQuAD2.0數據集上進行了微調,能夠處理有答案和無答案的問答場景。
問答系統 Transformers
E
ahotrod
8,925
6
Distilbert Onnx
Apache-2.0
這是一個基於DistilBERT-base-cased模型,通過知識蒸餾技術在SQuAD v1.1數據集上微調得到的問答模型。
問答系統 Transformers 英語
D
philschmid
8,650
2
Biobert V1.1 Biomedicalquestionanswering
基於BioBERT-v1.1微調的生物醫學領域問答模型
問答系統 Transformers
B
Shushant
7,145
6
Tapas Base Finetuned Tabfact
Apache-2.0
TAPAS是基於Transformer架構的類BERT模型,專門用於處理表格數據,通過自監督方式在維基百科英文表格數據上預訓練,並在TabFact數據集上微調,用於判斷句子是否被表格內容支持或反駁。
問答系統 Transformers 英語
T
google
6,669
1
T5 Base Finetuned Question Generation Ap
Apache-2.0
該模型是基於T5-base架構,在SQuAD v1.1數據集上微調,專門用於問題生成任務。
問答系統 Transformers 英語
T
mrm8488
6,562
109
Bert Tiny Finetuned Squadv2
基於Google BERT-Tiny架構,在SQuAD2.0問答數據集上微調的小型問答模型,體積僅16.74MB
問答系統 英語
B
mrm8488
6,327
1
Qnli Electra Base
Apache-2.0
這是一個基於ELECTRA架構的交叉編碼器模型,專門用於問答任務中的自然語言推理(NLI),判斷給定問題是否能由特定段落回答。
問答系統 Transformers 英語
Q
cross-encoder
6,172
3
Albert Base V2 Squad2
基於ALBERT base v2架構,在SQuAD v2數據集上微調的問答模型,擅長處理含無答案情況的閱讀理解任務
問答系統 Transformers
A
twmkn9
4,152
4
Tapas Temporary Repo
Apache-2.0
TAPAS是一種基於表格的問答模型,通過預訓練和微調處理表格數據的對話式問答任務。
問答系統 Transformers 英語
T
lysandre
3,443
0
Wmt22 Cometkiwi Da
COMETKiwi 是一個用於機器翻譯質量評估的模型,能夠根據源文本和翻譯文本輸出質量評分。
問答系統 支持多種語言
W
Unbabel
3,104
38
Splinter Base Qass
Apache-2.0
Splinter是一種通過自監督方式預訓練的少樣本問答模型,採用循環跨度選擇(RSS)目標進行預訓練,模擬抽取式問答中的跨度選擇過程。
問答系統 Transformers 英語
S
tau
3,048
1
Bert Base Cased Squad V1.1 Portuguese
MIT
基於BERTimbau基礎版微調的葡萄牙語問答模型,在葡萄牙語SQUAD v1.1數據集上訓練,適用於葡萄牙語問答任務。
問答系統 其他
B
pierreguillou
3,041
36
Dictalm2 It Qa Fine Tune
Apache-2.0
這是Dicta - IL的dictalm2.0 - instruct模型的微調版本,專門用於生成希伯來語的問答對。
問答系統 Transformers 其他
D
618AI
2,900
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98
Tapex Large Finetuned Wtq
MIT
TAPEX是一種通過神經SQL執行器學習的表格預訓練模型,基於BART架構,專為表格推理任務設計。
問答系統 Transformers 英語
T
microsoft
2,431
74
Flan T5 Base Squad2
MIT
基於flan-t5-base模型,使用SQuAD2.0數據集微調的抽取式問答模型,可處理包含無答案問題的問答對。
問答系統 Transformers 英語
F
sjrhuschlee
2,425
4
Tapas Tiny Finetuned Sqa
Apache-2.0
TAPAS是一種基於表格數據的問答模型,該微型版本在SQA數據集上微調,適用於對話場景下的表格問答任務。
問答系統 Transformers 英語
T
google
2,391
0
Dynamic Tinybert
Apache-2.0
Dynamic-TinyBERT是一種高效問答模型,通過動態序列長度縮減提升推理效率,在保持高準確率的同時實現最高3.3倍加速。
問答系統 Transformers 英語
D
Intel
2,184
78
Distill Bert Base Spanish Wwm Cased Finetuned Spa Squad2 Es
Apache-2.0
基於BETO模型通過蒸餾技術優化的西班牙語問答模型,比標準版更輕量高效
問答系統 西班牙語
D
mrm8488
2,145
48
Biobert V1.1 Pubmed Squad V2
基於BioBERT v1.1 Pubmed模型在SQuAD V2數據集上微調的問答模型,專門用於生物醫學領域的問答任務
問答系統
B
ktrapeznikov
2,127
3
Tapas Tiny Finetuned Wtq
Apache-2.0
TAPAS是一個針對表格問答任務優化的微型Transformer模型,通過中間預訓練和多數據集鏈式微調實現表格理解能力
問答系統 Transformers 英語
T
google
1,894
1
Bert Base Uncased Squad V1
MIT
基於BERT基礎uncased模型在SQuAD1.1數據集上微調的問答系統模型
問答系統 英語
B
csarron
1,893
13
Tapas Base Finetuned Sqa
Apache-2.0
基於BERT架構的表格問答模型,通過中間預訓練增強數值推理能力,在SQA數據集上微調完成
問答系統 Transformers 英語
T
google
1,867
6
Question Answering Roberta Base S V2
Apache-2.0
基於RoBERTa的問答模型,專用於在給定問題和上下文的情況下推斷答案文本、範圍及置信度分數。
問答系統 Transformers
Q
consciousAI
1,832
10
Xlm Roberta Large Qa Multilingual Finedtuned Ru
Apache-2.0
這是一個基於XLM-RoBERTa架構的預訓練模型,採用掩碼語言建模目標訓練,並在英語和俄語問答數據集上進行了微調。
問答系統 Transformers 支持多種語言
X
AlexKay
1,814
48
Camembert Base Squadfr Fquad Piaf
基於CamemBERT的法語問答模型,在PIAF、FQuAD和SQuAD-FR三個法語問答數據集上微調而成
問答系統 Transformers 法語
C
AgentPublic
1,789
28
Distilbert Base Uncased Distilled Squad Int8 Static Inc
Apache-2.0
這是DistilBERT基礎未編碼模型的INT8量化版本,專為問答任務設計,通過訓練後靜態量化優化了模型大小和推理速度。
問答系統 Transformers
D
Intel
1,737
4
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase