Qwen3 30B A3B Base
Apache-2.0
Qwen3-30B-A3B-Base是通义千问系列最新一代30.5B参数规模的混合专家(MoE)大语言模型,支持119种语言和32k上下文长度。
大型语言模型
Transformers

Q
Qwen
9,745
33
Gemma 3 4b It Uncensored DBL X Int2 Quantized
基于Transformers库的预训练模型,适用于自然语言处理任务
大型语言模型
Transformers

G
Kfjjdjdjdhdhd
39
1
Gte Qwen2 1.5B Instruct
Apache-2.0
基于Qwen2-1.5B构建的通用文本嵌入模型,支持多语言和长文本处理
文本嵌入
Transformers

G
Alibaba-NLP
242.12k
207
Yi 1.5 34B Chat
Apache-2.0
Yi-1.5是Yi模型的升级版本,在编程、数学、推理和指令跟随能力方面表现更出色,同时保持卓越的语言理解、常识推理和阅读理解能力。
大型语言模型
Transformers

Y
01-ai
70.62k
270
Mminilmv2 L6 H384
MIT
微软多语言MiniLM v2模型的重新上传版本,基于HuggingFace transformers库优化使用体验
大型语言模型
Transformers

M
hotchpotch
98
1
Mminilmv2 L12 H384
MIT
mMiniLMv2-L12-H384 是微软发布的多语言 MiniLM v2 模型的一个版本,旨在通过 HuggingFace transformers 库提供更便捷的使用体验。
大型语言模型
Transformers

M
hotchpotch
21
2
Flan T5 Xl Gguf
Apache-2.0
FLAN-T5是T5模型的指令微调版本,通过1000多项多语言任务微调,在相同参数量下性能更优。
大型语言模型 支持多种语言
F
deepfile
61
8
Mplug Owl Bloomz 7b Multilingual
Apache-2.0
mPLUG-Owl是一个多语言视觉语言模型,支持图像理解和多轮对话,基于BLOOMZ-7B架构开发。
图像生成文本
Transformers 支持多种语言

M
MAGAer13
29
9
Lilt Xlm Roberta Base Finetuned With DocLayNet Base At Linelevel Ml384
MIT
基于LiLT和DocLayNet数据集微调的行级别文档理解模型,支持多语言文档布局分析
图像生成文本
Transformers 支持多种语言

L
pierreguillou
700
12
Canine C Squad
CANINE-C 是谷歌开发的基于字符的预训练Transformer模型,专门用于处理长文本序列的问答任务。
问答系统
Transformers

C
Splend1dchan
68
0
Infoxlm Large
InfoXLM 是一个基于信息理论的跨语言预训练框架,旨在通过最大化不同语言之间的互信息来提升跨语言表示学习的效果。
大型语言模型
Transformers

I
microsoft
1.1M
12
Cino Large V2
Apache-2.0
面向中国少数民族语言的多语言预训练模型,支持中文及7种少数民族语言
大型语言模型
Transformers 支持多种语言

C
hfl
110
11
Roberta Large Mnli
XLM-RoBERTa是基于RoBERTa架构的多语言预训练模型,支持100种语言,在跨语言理解任务中表现优异。
大型语言模型
Transformers 其他

R
typeform
119
7
Distilbert Base Uncased Mnli
DistilBERT是BERT的精简版本,保留了BERT 97%的性能,同时体积减小40%,速度提升60%。
大型语言模型
Transformers 英语

D
typeform
74.81k
38
Xlmroberta For VietnameseQA
MIT
基于xlm-roberta-base微调的越南语问答模型,在UIT-Viquad_v2数据集上训练
问答系统
Transformers

X
hogger32
54
0
Electricidad Small Finetuned Xnli Es
MIT
这是一个基于西班牙语的预训练模型,专门针对跨语言自然语言推理任务进行了微调。
大型语言模型
Transformers 支持多种语言

E
mrm8488
18
2
Mdeberta V3 Base
MIT
mDeBERTa是DeBERTa的多语言版本,采用ELECTRA式预训练与梯度解耦嵌入共享技术,在XNLI等跨语言任务中表现优异
大型语言模型
Transformers 支持多种语言

M
microsoft
692.08k
179
Xlm Align Base
XLM-Align是一个支持94种语言的预训练跨语言模型,通过自标注词对齐改进预训练跨语言模型。
大型语言模型
Transformers

X
microsoft
354
9
Infoxlm Base
InfoXLM是一种基于信息论的跨语言预训练框架,旨在通过最大化跨语言任务中的互信息来提升模型性能。
大型语言模型
Transformers

I
microsoft
20.30k
7
Multilingual MiniLM L12 H384
MIT
MiniLM是一种小型高效的预训练语言模型,通过深度自注意力蒸馏技术压缩Transformer模型,支持多语言理解与生成任务。
大型语言模型 支持多种语言
M
microsoft
28.51k
83
Xlmr Large Qa Fa
基于XLM-RoBERTa大模型微调的波斯语问答系统,在PersianQA数据集上训练,支持波斯语和多语言问答任务。
问答系统
Transformers 其他

X
m3hrdadfi
65
5
Xlm Roberta Base
XLM-RoBERTa是基于RoBERTa架构的多语言预训练模型,支持100种语言,适用于跨语言理解任务。
大型语言模型
Transformers

X
kornesh
30
1
Xlm Roberta Large
XLM-RoBERTa-large 是一个基于 RoBERTa 架构的多语言预训练语言模型,支持多种语言的自然语言处理任务。
大型语言模型
Transformers

X
kornesh
2,154
0
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Zeroaraelectra
其他
基于阿拉伯语的零样本分类模型,支持自然语言推理任务
文本分类
Transformers 支持多种语言

Z
KheireddineDaouadi
39
0
BERT Responsible AI
BERT是一种基于Transformer架构的预训练语言模型,能够处理多种语言的自然语言处理任务。
大型语言模型
Transformers

B
Mustang
15
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98