# SQuAD優化

Modernbert QnA Base Squad
Apache-2.0
基於ModernBERT微調的問答模型,在SQuAD數據集上表現優異,適用於抽取式問答任務。
問答系統 Transformers 英語
M
rankyx
1,106
6
Bart Base Few Shot K 128 Finetuned Squad Seed 4
Apache-2.0
基於BART-base架構,在SQuAD數據集上進行微調的問答模型,適用於閱讀理解任務。
問答系統 Transformers
B
anas-awadalla
13
0
Mobilebert Uncased Finetuned Squadv1
基於MobileBERT模型在SQuADv1問答數據集上微調的版本,針對問答任務優化
問答系統 Transformers 英語
M
RedHatAI
41
1
Deberta Base Finetuned Squad1 Aqa
MIT
該模型是基於DeBERTa-base在SQuAD1數據集上微調後,又在adversarial_qa數據集上進一步微調的問答模型。
問答系統 Transformers
D
stevemobs
15
0
Bert Base Uncased Finetuned Squad V2
Apache-2.0
該模型是基於bert-base-uncased在SQuAD數據集上微調的問答模型
問答系統 Transformers
B
HomayounSadri
621
0
Mobilebert Uncased Squad V1
MIT
MobileBERT是BERT_LARGE的輕量化版本,採用瓶頸結構設計,在自注意力機制與前饋網絡之間實現平衡。本模型在SQuAD1.1數據集上微調,適用於問答任務。
問答系統 Transformers 英語
M
csarron
160
0
Electra Large Synqa
Apache-2.0
基於ELECTRA-Large架構的兩階段訓練問答模型,先在合成對抗數據上訓練,再在SQuAD和AdversarialQA數據集上微調
問答系統 Transformers 英語
E
mbartolo
24
3
Qnli Distilroberta Base
Apache-2.0
該模型是基於distilroberta-base訓練的交叉編碼器,用於判斷給定段落是否能回答特定問題,在GLUE QNLI數據集上訓練。
問答系統 英語
Q
cross-encoder
1,526
0
Movie Roberta Squad
基於電影語料庫進行領域自適應預訓練的RoBERTa基礎模型,通過調整模型頭部結構以執行SQuAD問答任務,能夠針對電影領域的問題進行回答。
問答系統
M
thatdramebaazguy
22
1
Bert Large Uncased Wwm Squadv2 X2.15 F83.2 D25 Hybrid V1
MIT
該模型通過nn_pruning庫修剪,保留了32%原始權重,運行速度是原版的2.15倍,F1值83.22
問答系統 Transformers 英語
B
madlag
21
0
Qnli Electra Base
Apache-2.0
這是一個基於ELECTRA架構的交叉編碼器模型,專門用於問答任務中的自然語言推理(NLI),判斷給定問題是否能由特定段落回答。
問答系統 Transformers 英語
Q
cross-encoder
6,172
3
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase