Turkish Law Eqa Bert Finetuned
Apache-2.0
针对土耳其法律文本的抽取式问答任务进行微调的BERT模型,能够从法律条款中提取相关片段回答问题。
问答系统
Transformers 其他

T
yeniguno
34
1
Tiny Llama 1.1b Chat Medical
该模型是一个用于医疗领域的问答数据集,主要用于支持医疗相关问题的准确回答。
问答系统
Transformers 英语

T
SumayyaAli
61
4
Xlm Roberta Large Squad2 Qa Milqa Impossible
该模型是基于milqa数据集对deepset/xlm-roberta-large-squad2进行微调的匈牙利语问答模型,支持处理无答案的情况。
问答系统
Transformers 其他

X
ZTamas
28
2
Electra Qa
Electra-qa 是一个基于 ELECTRA 架构的问答模型,适用于问答任务。
问答系统
Transformers

E
vaibhav9
14
0
Spanbert Qa
基于SpanBERT/spanbert-base-cased微调的问答模型,适用于阅读理解任务
问答系统
Transformers

S
vaibhav9
24
0
Persian Xlm Roberta Large
基于XLM-RoBERTA多语言预训练模型,在波斯语问答数据集PQuAD上微调的问答模型
问答系统
Transformers

P
pedramyazdipoor
77
3
Deberta Base Finetuned Aqa Squad1
MIT
该模型是基于DeBERTa-base在SQuAD问答数据集上微调的版本,用于自动问答任务
问答系统
Transformers

D
stevemobs
14
0
Deberta Base Finetuned Squad1 Aqa
MIT
该模型是基于DeBERTa-base在SQuAD1数据集上微调后,又在adversarial_qa数据集上进一步微调的问答模型。
问答系统
Transformers

D
stevemobs
15
0
Roberta Base Squad2 Finetuned Squad
该模型是基于RoBERTa-base在SQuAD 2.0数据集上微调的问答模型,擅长处理阅读理解任务。
问答系统
Transformers

R
deepakvk
14
0
Roberta Base Finetuned Squad2
MIT
基于RoBERTa-base模型在SQuAD 2.0数据集上微调的问答模型
问答系统
Transformers

R
mvonwyl
19
0
Bert Base Uncased Finetuned Squad
Apache-2.0
基于bert-base-uncased模型在SQuAD1.1数据集上微调的问答系统模型
问答系统
Transformers

B
victoraavila
18
0
Longformer Base 4096 Finetuned Squadv1
MIT
基于LONGFORMER-BASE-4096模型在SQuAD v1问答数据集上的微调版本,适用于处理长文档问答任务
问答系统
L
valhalla
806
22
Xlm Roberta Large Finetuned Squad V2
MIT
基于xlm-roberta-large模型在squad_v2数据集上微调的问答模型
问答系统
Transformers

X
sontn122
67
0
Roberta Large Cuad
该模型是基于RoBERTa大型模型使用CUAD法律合同数据集进行微调的版本,专门用于法律合同审查任务。
问答系统
Transformers 英语

R
akdeniz27
145
3
Sapbert From Pubmedbert Squad2
该模型是基于PubMedBERT在squad_v2数据集上微调的问答系统模型,适用于医疗领域的问答任务。
问答系统
Transformers

S
bigwiz83
362
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98