# 多语言问答

Galactic Qwen 14B Exp2
Apache-2.0
Galactic-Qwen-14B-Exp2 是基于 Qwen 2.5 14B 架构设计的大语言模型,专注于增强推理能力,擅长上下文理解、逻辑推理和多步骤问题解决。
大型语言模型 Transformers 支持多种语言
G
prithivMLmods
558
4
Serpens Opus 14B Exp
Apache-2.0
Serpens-Opus-14B-Exp是基于Qwen 2.5 14B架构设计的140亿参数模型,旨在增强推理能力,适用于通用推理和问答任务。
大型语言模型 Transformers 支持多种语言
S
prithivMLmods
158
1
Lucie 7B Instruct V1.1
Apache-2.0
基于Lucie-7B微调的多语言因果语言模型,支持法语和英语,专注于指令跟随和文本生成任务。
大型语言模型 支持多种语言
L
OpenLLM-France
13.33k
9
Qwen2.5 0.5b Test Ft
Apache-2.0
Qwen 2.5 0.5B 是一款紧凑而强大的语言模型,基于Qwen/Qwen2.5-0.5B-Instruct微调,支持多种语言,性能接近Llama 3.2 1B模型。
大型语言模型 Transformers 支持多种语言
Q
KingNish
1,004
11
Llama 3.1 Openhermes Tr
Apache-2.0
基于unsloth/llama-3-8b-bnb-4bit微调的土耳其语-英语双语模型,使用Unsloth优化训练速度
大型语言模型 Transformers 支持多种语言
L
umarigan
5,520
3
My Awesome Qa Model
Apache-2.0
基于bert-base-multilingual-cased在squad数据集上微调的问答模型
问答系统 Transformers
M
vnktrmnb
14
0
Multilingual Bert Finetuned Xquad
Apache-2.0
基于bert-base-multilingual-cased模型在xquad数据集上微调的多语言问答模型
问答系统 Transformers
M
ritwikm
24
0
Mdeberta V3 Base Squad2
MIT
基于mDeBERTa-v3-base的多语言问答模型,在SQuAD2.0数据集上进行了微调
问答系统 Transformers 支持多种语言
M
timpal0l
14.06k
246
Bert Base Multilingual Cased Sv2
Apache-2.0
基于bert-base-multilingual-cased在squad_v2数据集上微调的多语言问答模型
问答系统 Transformers
B
monakth
13
0
Xlm Roberta Large Xquad
基于XLM-RoBERTa-large的多语言问答模型,在XQuAD数据集上训练,支持11种语言的抽取式问答任务。
问答系统 Transformers 其他
X
alon-albalak
45
2
Bert Multi Cased Finetuned Xquadv1
基于Google BERT基础多语言模型,在11种语言的问答数据集上微调,支持跨语言问答任务
问答系统 其他
B
mrm8488
1,100
5
Bert Base Multilingual Cased Finetuned Squad
这是一个基于多语言BERT模型在斯坦福问答数据集(SQuADv1.1)上微调的问答模型,支持多种语言的阅读理解任务。
问答系统 其他
B
salti
28
14
Xlmroberta Squadv2
这是针对问答任务在SQuADv2数据集上微调的xlm-roberta-large模型
问答系统 Transformers
X
aware-ai
15
0
Squad Mbart Model
基于未知数据集从头开始训练的mbart模型,具体用途和特性需进一步补充
问答系统 Transformers
S
ZYW
18
0
Xlm Roberta Large Finetuned Squad V2
MIT
基于xlm-roberta-large模型在squad_v2数据集上微调的问答模型
问答系统 Transformers
X
sontn122
67
0
Xlm Roberta Qa Chaii
基于XLM-Roberta预训练的多语言问答模型,支持英语、泰米尔语和印地语,针对印度语言问答场景优化
问答系统 Transformers 支持多种语言
X
gokulkarthik
14
0
Bert Base Multilingual Xquad
基于bert-base-multilingual-uncased的多语言问答模型,在XQuAD数据集上微调
问答系统 Transformers 其他
B
alon-albalak
24
0
Mt5 Base Finetuned Tydiqa Xqa
该模型是基于谷歌mT5-base在TyDi QA数据集上微调的多语言问答模型,支持101种语言的问答任务。
问答系统 Transformers 其他
M
Narrativa
368
6
Xlm Roberta Large Qa Multilingual Finedtuned Ru
Apache-2.0
这是一个基于XLM-RoBERTa架构的预训练模型,采用掩码语言建模目标训练,并在英语和俄语问答数据集上进行了微调。
问答系统 Transformers 支持多种语言
X
AlexKay
1,814
48
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase