# 无答案检测

Flan T5 Large Squad2
MIT
基于flan-t5-large模型,使用SQuAD2.0数据集微调的抽取式问答模型,支持可回答和不可回答问题的处理。
问答系统 Transformers 英语
F
sjrhuschlee
57
5
Flan T5 Base Squad2
MIT
基于flan-t5-base模型,使用SQuAD2.0数据集微调的抽取式问答模型,可处理包含无答案问题的问答对。
问答系统 Transformers 英语
F
sjrhuschlee
2,425
4
Qamembert
MIT
QAmembert是基于CamemBERT基础版针对法语问答任务进行微调的模型,训练数据包含四种法语问答数据集,支持答案存在和不存在两种情况。
问答系统 Transformers 法语
Q
CATIE-AQ
37
14
Albert Xlarge Finetuned
基于ALBERT架构的xlarge版本v2模型,在SQuAD V2数据集上微调,用于问答任务
问答系统 Transformers
A
123tarunanand
16
0
Albert Xlarge V2 Squad V2
基于ALBERT-xlarge-v2模型在SQuAD V2问答数据集上微调的问答系统
问答系统 Transformers
A
ktrapeznikov
104
2
Bert Base Multilingual Cased Finetuned Polish Squad2
基于多语言BERT模型微调的波兰语问答系统,在机器翻译的波兰语SQuAD2.0数据集上训练
问答系统 其他
B
henryk
71
6
Albert Xxlargev1 Squad2 512
这是一个基于ALBERT XXLarge架构并在SQuAD2.0数据集上微调的语言模型,专门用于问答任务,能够处理有答案和无答案的情况。
问答系统 Transformers
A
ahotrod
25
6
Longformer Base 4096 Finetuned Squadv2
该模型是基于Longformer架构,在SQuAD v2问答数据集上微调的问答系统,支持处理长文本序列(最长4096个token)。
问答系统 Transformers 英语
L
mrm8488
190
15
Scibert Scivocab Uncased Squad V2
基于BERT架构的科学领域预训练语言模型,使用科学文献词汇表进行训练
问答系统
S
ktrapeznikov
20
0
Electra Large Discriminator Squad2 512
这是一个基于ELECTRA架构的大规模判别器模型,专门针对问答任务在SQuAD2.0数据集上进行了微调,能够处理有答案和无答案的问答场景。
问答系统 Transformers
E
ahotrod
8,925
6
Bert Base Uncased Squad2
基于BERT基础无大小写版本在SQuAD v2数据集上微调的问答模型
问答系统
B
twmkn9
50
2
Xlnet Base Squadv2
XLNet是由谷歌与卡内基梅隆大学联合开发的预训练语言模型,在SQuAD 2.0问答数据集上进行了微调
问答系统 Transformers
X
ggoggam
21
2
Distilbert Base Uncased Squad2
基于DistilBERT的轻量级问答模型,在SQuAD 2.0数据集上微调,支持回答问题和判断无答案场景
问答系统 Transformers
D
twmkn9
381
4
Cs224n Squad2.0 Distilbert Base Uncased
该模型是为CS224n学生项目建立的基准模型,基于DistilBERT架构,在SQuAD2.0数据集上微调,用于问答任务。
问答系统 Transformers
C
elgeish
15
0
Bert Base Fa Qa
基于BERT架构的波斯语问答模型,专为波斯语问答任务设计。
问答系统
B
SajjadAyoubi
115
8
Xlm Roberta Large Fa Qa
基于RoBERTa架构的波斯语问答模型,针对波斯语问答任务进行了优化
问答系统 Transformers
X
SajjadAyoubi
141
7
Roberta Base Best Squad2
基于RoBERTa的英语抽取式问答模型,在SQuAD 2.0数据集上训练,能处理有答案和无答案的问答场景
问答系统 Transformers
R
PremalMatalia
30
1
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase