Galactic Qwen 14B Exp2
Apache-2.0
Galactic-Qwen-14B-Exp2 是基于 Qwen 2.5 14B 架构设计的大语言模型,专注于增强推理能力,擅长上下文理解、逻辑推理和多步骤问题解决。
大型语言模型
Transformers 支持多种语言

G
prithivMLmods
558
4
Serpens Opus 14B Exp
Apache-2.0
Serpens-Opus-14B-Exp是基于Qwen 2.5 14B架构设计的140亿参数模型,旨在增强推理能力,适用于通用推理和问答任务。
大型语言模型
Transformers 支持多种语言

S
prithivMLmods
158
1
Lucie 7B Instruct V1.1
Apache-2.0
基于Lucie-7B微调的多语言因果语言模型,支持法语和英语,专注于指令跟随和文本生成任务。
大型语言模型 支持多种语言
L
OpenLLM-France
13.33k
9
Qwen2.5 0.5b Test Ft
Apache-2.0
Qwen 2.5 0.5B 是一款紧凑而强大的语言模型,基于Qwen/Qwen2.5-0.5B-Instruct微调,支持多种语言,性能接近Llama 3.2 1B模型。
大型语言模型
Transformers 支持多种语言

Q
KingNish
1,004
11
Llama 3.1 Openhermes Tr
Apache-2.0
基于unsloth/llama-3-8b-bnb-4bit微调的土耳其语-英语双语模型,使用Unsloth优化训练速度
大型语言模型
Transformers 支持多种语言

L
umarigan
5,520
3
My Awesome Qa Model
Apache-2.0
基于bert-base-multilingual-cased在squad数据集上微调的问答模型
问答系统
Transformers

M
vnktrmnb
14
0
Multilingual Bert Finetuned Xquad
Apache-2.0
基于bert-base-multilingual-cased模型在xquad数据集上微调的多语言问答模型
问答系统
Transformers

M
ritwikm
24
0
Mdeberta V3 Base Squad2
MIT
基于mDeBERTa-v3-base的多语言问答模型,在SQuAD2.0数据集上进行了微调
问答系统
Transformers 支持多种语言

M
timpal0l
14.06k
246
Bert Base Multilingual Cased Sv2
Apache-2.0
基于bert-base-multilingual-cased在squad_v2数据集上微调的多语言问答模型
问答系统
Transformers

B
monakth
13
0
Xlm Roberta Large Xquad
基于XLM-RoBERTa-large的多语言问答模型,在XQuAD数据集上训练,支持11种语言的抽取式问答任务。
问答系统
Transformers 其他

X
alon-albalak
45
2
Bert Multi Cased Finetuned Xquadv1
基于Google BERT基础多语言模型,在11种语言的问答数据集上微调,支持跨语言问答任务
问答系统 其他
B
mrm8488
1,100
5
Bert Base Multilingual Cased Finetuned Squad
这是一个基于多语言BERT模型在斯坦福问答数据集(SQuADv1.1)上微调的问答模型,支持多种语言的阅读理解任务。
问答系统 其他
B
salti
28
14
Xlmroberta Squadv2
这是针对问答任务在SQuADv2数据集上微调的xlm-roberta-large模型
问答系统
Transformers

X
aware-ai
15
0
Squad Mbart Model
基于未知数据集从头开始训练的mbart模型,具体用途和特性需进一步补充
问答系统
Transformers

S
ZYW
18
0
Xlm Roberta Large Finetuned Squad V2
MIT
基于xlm-roberta-large模型在squad_v2数据集上微调的问答模型
问答系统
Transformers

X
sontn122
67
0
Xlm Roberta Qa Chaii
基于XLM-Roberta预训练的多语言问答模型,支持英语、泰米尔语和印地语,针对印度语言问答场景优化
问答系统
Transformers 支持多种语言

X
gokulkarthik
14
0
Bert Base Multilingual Xquad
基于bert-base-multilingual-uncased的多语言问答模型,在XQuAD数据集上微调
问答系统
Transformers 其他

B
alon-albalak
24
0
Mt5 Base Finetuned Tydiqa Xqa
该模型是基于谷歌mT5-base在TyDi QA数据集上微调的多语言问答模型,支持101种语言的问答任务。
问答系统
Transformers 其他

M
Narrativa
368
6
Xlm Roberta Large Qa Multilingual Finedtuned Ru
Apache-2.0
这是一个基于XLM-RoBERTa架构的预训练模型,采用掩码语言建模目标训练,并在英语和俄语问答数据集上进行了微调。
问答系统
Transformers 支持多种语言

X
AlexKay
1,814
48
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98