# 多語言理解

Qwen3 30B A3B Base
Apache-2.0
Qwen3-30B-A3B-Base是通義千問系列最新一代30.5B參數規模的混合專家(MoE)大語言模型,支持119種語言和32k上下文長度。
大型語言模型 Transformers
Q
Qwen
9,745
33
Gemma 3 4b It Uncensored DBL X Int2 Quantized
基於Transformers庫的預訓練模型,適用於自然語言處理任務
大型語言模型 Transformers
G
Kfjjdjdjdhdhd
39
1
Gte Qwen2 1.5B Instruct
Apache-2.0
基於Qwen2-1.5B構建的通用文本嵌入模型,支持多語言和長文本處理
文本嵌入 Transformers
G
Alibaba-NLP
242.12k
207
Yi 1.5 34B Chat
Apache-2.0
Yi-1.5是Yi模型的升級版本,在編程、數學、推理和指令跟隨能力方面表現更出色,同時保持卓越的語言理解、常識推理和閱讀理解能力。
大型語言模型 Transformers
Y
01-ai
70.62k
270
Mminilmv2 L6 H384
MIT
微軟多語言MiniLM v2模型的重新上傳版本,基於HuggingFace transformers庫優化使用體驗
大型語言模型 Transformers
M
hotchpotch
98
1
Mminilmv2 L12 H384
MIT
mMiniLMv2-L12-H384 是微軟發佈的多語言 MiniLM v2 模型的一個版本,旨在通過 HuggingFace transformers 庫提供更便捷的使用體驗。
大型語言模型 Transformers
M
hotchpotch
21
2
Flan T5 Xl Gguf
Apache-2.0
FLAN-T5是T5模型的指令微調版本,通過1000多項多語言任務微調,在相同參數量下性能更優。
大型語言模型 支持多種語言
F
deepfile
61
8
Mplug Owl Bloomz 7b Multilingual
Apache-2.0
mPLUG-Owl是一個多語言視覺語言模型,支持圖像理解和多輪對話,基於BLOOMZ-7B架構開發。
圖像生成文本 Transformers 支持多種語言
M
MAGAer13
29
9
Lilt Xlm Roberta Base Finetuned With DocLayNet Base At Linelevel Ml384
MIT
基於LiLT和DocLayNet數據集微調的行級別文檔理解模型,支持多語言文檔佈局分析
圖像生成文本 Transformers 支持多種語言
L
pierreguillou
700
12
Canine C Squad
CANINE-C 是谷歌開發的基於字符的預訓練Transformer模型,專門用於處理長文本序列的問答任務。
問答系統 Transformers
C
Splend1dchan
68
0
Infoxlm Base
InfoXLM是一種基於信息論的跨語言預訓練框架,旨在通過最大化跨語言任務中的互信息來提升模型性能。
大型語言模型 Transformers
I
microsoft
20.30k
7
Mdeberta V3 Base
MIT
mDeBERTa是DeBERTa的多語言版本,採用ELECTRA式預訓練與梯度解耦嵌入共享技術,在XNLI等跨語言任務中表現優異
大型語言模型 Transformers 支持多種語言
M
microsoft
692.08k
179
Xlm Roberta Base
XLM-RoBERTa是基於RoBERTa架構的多語言預訓練模型,支持100種語言,適用於跨語言理解任務。
大型語言模型 Transformers
X
kornesh
30
1
Infoxlm Large
InfoXLM 是一個基於信息理論的跨語言預訓練框架,旨在通過最大化不同語言之間的互信息來提升跨語言表示學習的效果。
大型語言模型 Transformers
I
microsoft
1.1M
12
Multilingual MiniLM L12 H384
MIT
MiniLM是一種小型高效的預訓練語言模型,通過深度自注意力蒸餾技術壓縮Transformer模型,支持多語言理解與生成任務。
大型語言模型 支持多種語言
M
microsoft
28.51k
83
Xlmroberta For VietnameseQA
MIT
基於xlm-roberta-base微調的越南語問答模型,在UIT-Viquad_v2數據集上訓練
問答系統 Transformers
X
hogger32
54
0
Electricidad Small Finetuned Xnli Es
MIT
這是一個基於西班牙語的預訓練模型,專門針對跨語言自然語言推理任務進行了微調。
大型語言模型 Transformers 支持多種語言
E
mrm8488
18
2
Xlmr Large Qa Fa
基於XLM-RoBERTa大模型微調的波斯語問答系統,在PersianQA數據集上訓練,支持波斯語和多語言問答任務。
問答系統 Transformers 其他
X
m3hrdadfi
65
5
Xlm Roberta Large
XLM-RoBERTa-large 是一個基於 RoBERTa 架構的多語言預訓練語言模型,支持多種語言的自然語言處理任務。
大型語言模型 Transformers
X
kornesh
2,154
0
Xlm Align Base
XLM-Align是一個支持94種語言的預訓練跨語言模型,通過自標註詞對齊改進預訓練跨語言模型。
大型語言模型 Transformers
X
microsoft
354
9
Distilbert Base Uncased Mnli
DistilBERT是BERT的精簡版本,保留了BERT 97%的性能,同時體積減小40%,速度提升60%。
大型語言模型 Transformers 英語
D
typeform
74.81k
38
Roberta Large Mnli
XLM-RoBERTa是基於RoBERTa架構的多語言預訓練模型,支持100種語言,在跨語言理解任務中表現優異。
大型語言模型 Transformers 其他
R
typeform
119
7
Cino Large V2
Apache-2.0
面向中國少數民族語言的多語言預訓練模型,支持中文及7種少數民族語言
大型語言模型 Transformers 支持多種語言
C
hfl
110
11
BERT Responsible AI
BERT是一種基於Transformer架構的預訓練語言模型,能夠處理多種語言的自然語言處理任務。
大型語言模型 Transformers
B
Mustang
15
0
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Zeroaraelectra
其他
基於阿拉伯語的零樣本分類模型,支持自然語言推理任務
文本分類 Transformers 支持多種語言
Z
KheireddineDaouadi
39
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase