Distilbert Base Cased Distilled Squad
Apache-2.0
DistilBERT是BERT的轻量级蒸馏版本,参数量减少40%,速度提升60%,保留95%以上性能。本模型是在SQuAD v1.1数据集上微调的问答专用版本。
问答系统 英语
D
distilbert
220.76k
244
Distilbert Base Uncased Distilled Squad
Apache-2.0
DistilBERT是BERT的轻量级蒸馏版本,参数量减少40%,速度提升60%,在GLUE基准测试中保持BERT 95%以上的性能。本模型专为问答任务微调。
问答系统
Transformers 英语

D
distilbert
154.39k
115
Tapas Large Finetuned Wtq
Apache-2.0
TAPAS是基于BERT架构的表格问答模型,通过自监督方式在维基百科表格数据上预训练,支持对表格内容进行自然语言问答
问答系统
Transformers 英语

T
google
124.85k
141
T5 Base Question Generator
基于t5-base的问答生成模型,输入答案和上下文,输出相应问题
问答系统
Transformers

T
iarfmoose
122.74k
57
Bert Base Cased Qa Evaluator
基于BERT-base-cased的问答对评估模型,用于判断问题和答案是否语义相关
问答系统
B
iarfmoose
122.54k
9
Tiny Doc Qa Vision Encoder Decoder
MIT
一个基于MIT许可证的文档问答模型,主要用于测试目的。
问答系统
Transformers

T
fxmarty
41.08k
16
Dpr Question Encoder Single Nq Base
DPR(密集段落检索)是用于开放领域问答研究的工具和模型。该模型是基于BERT的问题编码器,使用自然问题(NQ)数据集训练。
问答系统
Transformers 英语

D
facebook
32.90k
30
Mobilebert Uncased Squad V2
MIT
MobileBERT是BERT_LARGE的轻量化版本,在SQuAD2.0数据集上微调而成的问答系统模型。
问答系统
Transformers 英语

M
csarron
29.11k
7
Tapas Base Finetuned Wtq
Apache-2.0
TAPAS是一个基于Transformer的表格问答模型,通过自监督学习在维基百科表格数据上预训练,并在WTQ等数据集上微调。
问答系统
Transformers 英语

T
google
23.03k
217
Dpr Question Encoder Multiset Base
基于BERT的密集段落检索(DPR)问题编码器,用于开放领域问答研究,在多个QA数据集上训练
问答系统
Transformers 英语

D
facebook
17.51k
4
Roberta Base On Cuad
MIT
基于RoBERTa-base模型在法律合同问答任务上微调的模型,专为法律合同审查设计
问答系统
Transformers 英语

R
Rakib
14.79k
8
Mdeberta V3 Base Squad2
MIT
基于mDeBERTa-v3-base的多语言问答模型,在SQuAD2.0数据集上进行了微调
问答系统
Transformers 支持多种语言

M
timpal0l
14.06k
246
T5 Base Qg Hl
MIT
基于T5-base架构训练的答案感知问题生成模型,能够根据文本中的高亮答案片段生成相应问题。
问答系统
Transformers

T
valhalla
11.65k
12
T5 Base E2e Qg
MIT
基于T5-base训练的端到端问题生成模型,能够从输入文本中自动生成相关问题。
问答系统
Transformers

T
valhalla
10.58k
29
Bert Large Finetuned Squad2
基于bert-large-uncased架构并在SQuAD2.0数据集上微调的问答模型
问答系统 英语
B
phiyodr
9,892
0
Electra Large Discriminator Squad2 512
这是一个基于ELECTRA架构的大规模判别器模型,专门针对问答任务在SQuAD2.0数据集上进行了微调,能够处理有答案和无答案的问答场景。
问答系统
Transformers

E
ahotrod
8,925
6
Distilbert Onnx
Apache-2.0
这是一个基于DistilBERT-base-cased模型,通过知识蒸馏技术在SQuAD v1.1数据集上微调得到的问答模型。
问答系统
Transformers 英语

D
philschmid
8,650
2
Biobert V1.1 Biomedicalquestionanswering
基于BioBERT-v1.1微调的生物医学领域问答模型
问答系统
Transformers

B
Shushant
7,145
6
Tapas Base Finetuned Tabfact
Apache-2.0
TAPAS是基于Transformer架构的类BERT模型,专门用于处理表格数据,通过自监督方式在维基百科英文表格数据上预训练,并在TabFact数据集上微调,用于判断句子是否被表格内容支持或反驳。
问答系统
Transformers 英语

T
google
6,669
1
T5 Base Finetuned Question Generation Ap
Apache-2.0
该模型是基于T5-base架构,在SQuAD v1.1数据集上微调,专门用于问题生成任务。
问答系统
Transformers 英语

T
mrm8488
6,562
109
Bert Tiny Finetuned Squadv2
基于Google BERT-Tiny架构,在SQuAD2.0问答数据集上微调的小型问答模型,体积仅16.74MB
问答系统 英语
B
mrm8488
6,327
1
Qnli Electra Base
Apache-2.0
这是一个基于ELECTRA架构的交叉编码器模型,专门用于问答任务中的自然语言推理(NLI),判断给定问题是否能由特定段落回答。
问答系统
Transformers 英语

Q
cross-encoder
6,172
3
Albert Base V2 Squad2
基于ALBERT base v2架构,在SQuAD v2数据集上微调的问答模型,擅长处理含无答案情况的阅读理解任务
问答系统
Transformers

A
twmkn9
4,152
4
Tapas Temporary Repo
Apache-2.0
TAPAS是一种基于表格的问答模型,通过预训练和微调处理表格数据的对话式问答任务。
问答系统
Transformers 英语

T
lysandre
3,443
0
Wmt22 Cometkiwi Da
COMETKiwi 是一个用于机器翻译质量评估的模型,能够根据源文本和翻译文本输出质量评分。
问答系统 支持多种语言
W
Unbabel
3,104
38
Splinter Base Qass
Apache-2.0
Splinter是一种通过自监督方式预训练的少样本问答模型,采用循环跨度选择(RSS)目标进行预训练,模拟抽取式问答中的跨度选择过程。
问答系统
Transformers 英语

S
tau
3,048
1
Bert Base Cased Squad V1.1 Portuguese
MIT
基于BERTimbau基础版微调的葡萄牙语问答模型,在葡萄牙语SQUAD v1.1数据集上训练,适用于葡萄牙语问答任务。
问答系统 其他
B
pierreguillou
3,041
36
Dictalm2 It Qa Fine Tune
Apache-2.0
这是Dicta - IL的dictalm2.0 - instruct模型的微调版本,专门用于生成希伯来语的问答对。
问答系统
Transformers 其他

D
618AI
2,900
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
Tapex Large Finetuned Wtq
MIT
TAPEX是一种通过神经SQL执行器学习的表格预训练模型,基于BART架构,专为表格推理任务设计。
问答系统
Transformers 英语

T
microsoft
2,431
74
Flan T5 Base Squad2
MIT
基于flan-t5-base模型,使用SQuAD2.0数据集微调的抽取式问答模型,可处理包含无答案问题的问答对。
问答系统
Transformers 英语

F
sjrhuschlee
2,425
4
Tapas Tiny Finetuned Sqa
Apache-2.0
TAPAS是一种基于表格数据的问答模型,该微型版本在SQA数据集上微调,适用于对话场景下的表格问答任务。
问答系统
Transformers 英语

T
google
2,391
0
Dynamic Tinybert
Apache-2.0
Dynamic-TinyBERT是一种高效问答模型,通过动态序列长度缩减提升推理效率,在保持高准确率的同时实现最高3.3倍加速。
问答系统
Transformers 英语

D
Intel
2,184
78
Distill Bert Base Spanish Wwm Cased Finetuned Spa Squad2 Es
Apache-2.0
基于BETO模型通过蒸馏技术优化的西班牙语问答模型,比标准版更轻量高效
问答系统 西班牙语
D
mrm8488
2,145
48
Biobert V1.1 Pubmed Squad V2
基于BioBERT v1.1 Pubmed模型在SQuAD V2数据集上微调的问答模型,专门用于生物医学领域的问答任务
问答系统
B
ktrapeznikov
2,127
3
Tapas Tiny Finetuned Wtq
Apache-2.0
TAPAS是一个针对表格问答任务优化的微型Transformer模型,通过中间预训练和多数据集链式微调实现表格理解能力
问答系统
Transformers 英语

T
google
1,894
1
Bert Base Uncased Squad V1
MIT
基于BERT基础uncased模型在SQuAD1.1数据集上微调的问答系统模型
问答系统 英语
B
csarron
1,893
13
Tapas Base Finetuned Sqa
Apache-2.0
基于BERT架构的表格问答模型,通过中间预训练增强数值推理能力,在SQA数据集上微调完成
问答系统
Transformers 英语

T
google
1,867
6
Question Answering Roberta Base S V2
Apache-2.0
基于RoBERTa的问答模型,专用于在给定问题和上下文的情况下推断答案文本、范围及置信度分数。
问答系统
Transformers

Q
consciousAI
1,832
10
Xlm Roberta Large Qa Multilingual Finedtuned Ru
Apache-2.0
这是一个基于XLM-RoBERTa架构的预训练模型,采用掩码语言建模目标训练,并在英语和俄语问答数据集上进行了微调。
问答系统
Transformers 支持多种语言

X
AlexKay
1,814
48
Camembert Base Squadfr Fquad Piaf
基于CamemBERT的法语问答模型,在PIAF、FQuAD和SQuAD-FR三个法语问答数据集上微调而成
问答系统
Transformers 法语

C
AgentPublic
1,789
28
Distilbert Base Uncased Distilled Squad Int8 Static Inc
Apache-2.0
这是DistilBERT基础未编码模型的INT8量化版本,专为问答任务设计,通过训练后静态量化优化了模型大小和推理速度。
问答系统
Transformers

D
Intel
1,737
4
- 1
- 2
- 3
- 4
- 5
- 6
- 10