Flan T5 Large Squad2
MIT
基于flan-t5-large模型,使用SQuAD2.0数据集微调的抽取式问答模型,支持可回答和不可回答问题的处理。
问答系统
Transformers 英语

F
sjrhuschlee
57
5
Flan T5 Base Squad2
MIT
基于flan-t5-base模型,使用SQuAD2.0数据集微调的抽取式问答模型,可处理包含无答案问题的问答对。
问答系统
Transformers 英语

F
sjrhuschlee
2,425
4
Qamembert
MIT
QAmembert是基于CamemBERT基础版针对法语问答任务进行微调的模型,训练数据包含四种法语问答数据集,支持答案存在和不存在两种情况。
问答系统
Transformers 法语

Q
CATIE-AQ
37
14
Albert Xlarge Finetuned
基于ALBERT架构的xlarge版本v2模型,在SQuAD V2数据集上微调,用于问答任务
问答系统
Transformers

A
123tarunanand
16
0
Albert Xlarge V2 Squad V2
基于ALBERT-xlarge-v2模型在SQuAD V2问答数据集上微调的问答系统
问答系统
Transformers

A
ktrapeznikov
104
2
Bert Base Multilingual Cased Finetuned Polish Squad2
基于多语言BERT模型微调的波兰语问答系统,在机器翻译的波兰语SQuAD2.0数据集上训练
问答系统 其他
B
henryk
71
6
Albert Xxlargev1 Squad2 512
这是一个基于ALBERT XXLarge架构并在SQuAD2.0数据集上微调的语言模型,专门用于问答任务,能够处理有答案和无答案的情况。
问答系统
Transformers

A
ahotrod
25
6
Longformer Base 4096 Finetuned Squadv2
该模型是基于Longformer架构,在SQuAD v2问答数据集上微调的问答系统,支持处理长文本序列(最长4096个token)。
问答系统
Transformers 英语

L
mrm8488
190
15
Scibert Scivocab Uncased Squad V2
基于BERT架构的科学领域预训练语言模型,使用科学文献词汇表进行训练
问答系统
S
ktrapeznikov
20
0
Electra Large Discriminator Squad2 512
这是一个基于ELECTRA架构的大规模判别器模型,专门针对问答任务在SQuAD2.0数据集上进行了微调,能够处理有答案和无答案的问答场景。
问答系统
Transformers

E
ahotrod
8,925
6
Bert Base Uncased Squad2
基于BERT基础无大小写版本在SQuAD v2数据集上微调的问答模型
问答系统
B
twmkn9
50
2
Xlnet Base Squadv2
XLNet是由谷歌与卡内基梅隆大学联合开发的预训练语言模型,在SQuAD 2.0问答数据集上进行了微调
问答系统
Transformers

X
ggoggam
21
2
Distilbert Base Uncased Squad2
基于DistilBERT的轻量级问答模型,在SQuAD 2.0数据集上微调,支持回答问题和判断无答案场景
问答系统
Transformers

D
twmkn9
381
4
Cs224n Squad2.0 Distilbert Base Uncased
该模型是为CS224n学生项目建立的基准模型,基于DistilBERT架构,在SQuAD2.0数据集上微调,用于问答任务。
问答系统
Transformers

C
elgeish
15
0
Bert Base Fa Qa
基于BERT架构的波斯语问答模型,专为波斯语问答任务设计。
问答系统
B
SajjadAyoubi
115
8
Xlm Roberta Large Fa Qa
基于RoBERTa架构的波斯语问答模型,针对波斯语问答任务进行了优化
问答系统
Transformers

X
SajjadAyoubi
141
7
Roberta Base Best Squad2
基于RoBERTa的英语抽取式问答模型,在SQuAD 2.0数据集上训练,能处理有答案和无答案的问答场景
问答系统
Transformers

R
PremalMatalia
30
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98