# 跨語言理解

Distilbert Base Multilingual Sentiment
Apache-2.0
基於 DistilBERT 的多語言情感分析模型,適用於多種語言的文本情感分類任務。
大型語言模型 Transformers
D
louaysboui
24
1
Mixtex Finetune
MIT
MixTex base_ZhEn 是一個支持中文和英語的圖像轉文本模型,基於MIT許可證發佈。
圖像生成文本 支持多種語言
M
wzmmmm
27
0
Drama Large Xnli Anli
基於facebook/drama-large在XNLI和ANLI數據集上微調的零樣本分類模型,支持15種語言的自然語言推理任務。
大型語言模型 支持多種語言
D
mjwong
23
0
Openbuddy Deepseek 10b V17.1 4k GGUF
其他
OpenBuddy/openbuddy-deepseek-10b-v17.1-4k的GGUF格式模型文件,支持多種語言,適用於文本生成任務。
大型語言模型 支持多種語言
O
tensorblock
81
1
Armenian Text Embeddings 1
基於multilingual-e5-base優化的亞美尼亞語文本嵌入模型,支持語義搜索和跨語言理解
文本嵌入 Transformers 支持多種語言
A
Metric-AI
578
18
Madlad400 7b Mt Bt Q4 K M GGUF
Apache-2.0
一個支持超過150種語言的多語言處理模型,適用於多種自然語言處理任務。
大型語言模型 支持多種語言
M
brauliobo
22
1
Opus Mt Tc Bible Big Deu Eng Fra Por Spa Mul
Apache-2.0
支持超過100種語言的通用Transformer模型,適用於多種自然語言處理任務
大型語言模型 Transformers 支持多種語言
O
Helsinki-NLP
203
1
Llama 3 EZO VLM 1
基於 Llama-3-8B-Instruct 的日語視覺語言模型,通過額外預訓練和指令調優增強日語能力
圖像生成文本 日語
L
AXCXEPT
19
7
Suzume Llama 3 8B Multilingual
其他
Suzume 8B是基於Llama 3的多語言微調版本,在近90,000個多語言對話上進行訓練,增強了多語言交流能力,同時保持了Llama 3的智能水平。
大型語言模型 Transformers
S
lightblue
9,494
112
Madlad400 3b Mt
Apache-2.0
一個支持超過100種語言的多語言處理模型,適用於多種自然語言處理任務。
大型語言模型 支持多種語言
M
google
7,035
119
Madlad400 8b Lm
Apache-2.0
一個支持超過200種語言的多語言處理模型,適用於多種自然語言處理任務。
大型語言模型 支持多種語言
M
jbochi
71
8
Madlad400 10b Mt
Apache-2.0
一個支持超過150種語言的多語言處理模型,適用於各種自然語言處理任務。
大型語言模型 支持多種語言
M
jbochi
120
18
Madlad400 7b Mt Bt
Apache-2.0
一個支持超過200種語言的通用語言模型,適用於多種自然語言處理任務。
大型語言模型 支持多種語言
M
jbochi
88
7
Madlad400 7b Mt
Apache-2.0
這是一個支持超過150種語言的通用模型,適用於多種自然語言處理任務。
大型語言模型 支持多種語言
M
jbochi
507
6
Serengeti E250
SERENGETI是一個覆蓋517種非洲語言及方言的大規模多語言預訓練模型,專注於填補非洲語言技術資源匱乏的空白。
大型語言模型 Transformers 其他
S
UBC-NLP
42
6
Fillmaskmodel
MIT
基於xlm-roberta-base微調的填充掩碼模型,用於預測被遮蔽的文本片段
大型語言模型 Transformers
F
Okyx
46
1
XLM RoBERTa Xtreme En
MIT
基於xlm-roberta-base在xtreme_en數據集上微調的標記分類模型,支持多語言文本處理。
序列標註 Transformers
X
arize-ai
5
0
Bloom 3b
Openrail
BLOOM 是一個多語言大語言模型,支持46種語言,專注於文本生成任務。
大型語言模型 Transformers 支持多種語言
B
bigscience
11.82k
92
Mminilmv2 L12 H384 Distilled From XLMR Large
MiniLMv2是微軟研究院推出的輕量級多語言預訓練模型,基於Transformer架構,適用於多種自然語言處理任務。
大型語言模型 Transformers
M
nreimers
21.39k
17
Mt5 M2o Chinese Simplified Crosssum
基於CrossSum數據集微調的mT5多對一模型,能夠用中文(簡體)總結多種語言編寫的文本
文本生成 Transformers 支持多種語言
M
csebuetnlp
43
20
Xquad Th Mbert Base
基於多語言BERT的泰語抽取式問答模型,能區分大小寫,適用於泰語問答任務。
問答系統 Transformers
X
zhufy
16
0
Canine C
Apache-2.0
CANINE-c是一個在多語言文本上預訓練的字符級編碼模型,無需顯式標記化處理,直接操作Unicode字符。
大型語言模型 Transformers 支持多種語言
C
google
191.50k
32
Xlm Roberta Base Finetuned Marc En J Run
MIT
基於xlm-roberta-base在亞馬遜多語言評論數據集上微調的文本分類模型
文本分類 Transformers
X
jx88
13
0
Mt5 Large Finetuned Mnli Xtreme Xnli
Apache-2.0
基於多語言T5模型微調,專為零樣本文本分類任務設計,支持15種語言
大型語言模型 Transformers 支持多種語言
M
alan-turing-institute
964
13
Bert Base Multilingual Xquad
基於bert-base-multilingual-uncased的多語言問答模型,在XQuAD數據集上微調
問答系統 Transformers 其他
B
alon-albalak
24
0
Cino Base V2
Apache-2.0
CINO是針對中國少數民族語言的多語言預訓練模型,支持中文及7種少數民族語言,基於XLM-R框架構建。
大型語言模型 Transformers 支持多種語言
C
hfl
156
5
Tf Xlm Roberta Base
XLM-RoBERTa是一種跨語言句子編碼器的擴展版本,基於100種語言的2.5T數據訓練,在多項跨語言基準測試中表現優異。
大型語言模型 Transformers
T
jplu
4,820
1
Tf Xlm Roberta Large
XLM-RoBERTa是一個大規模跨語言句子編碼器,基於100種語言的2.5TB數據訓練,在多項跨語言基準測試中表現優異。
大型語言模型 Transformers
T
jplu
236
1
Muril Adapted Local
Apache-2.0
MuRIL是谷歌開源的基於17種印度語言及其轉寫版本預訓練的BERT模型,支持多語言表示。
大型語言模型 支持多種語言
M
monsoon-nlp
24
2
Xlm Roberta Comet Small
mMiniLM-L12xH384 XLM-R 是一個輕量化的多語言預訓練模型,基於 MiniLMv2 架構,通過關係蒸餾技術壓縮了傳統 XLM-RoBERTa 模型。
大型語言模型 Transformers
X
Unbabel
45
2
Xlm Roberta Base Finetuned Marc En
MIT
基於xlm-roberta-base在亞馬遜多語言評論數據集上微調的文本分類模型
文本分類 Transformers
X
lewtun
16
0
Bert Base Multilingual Uncased Finetuned
基於bert-base-multilingual-uncased微調的模型,具體用途未明確說明
大型語言模型 Transformers
B
am-shb
16
0
Xlm Roberta Base Finetuned Marc
MIT
基於xlm-roberta-base在亞馬遜多語言評論數據集上微調的文本分類模型
文本分類 Transformers
X
begar
9
0
Bert Base En Fr Es De Zh Cased
Apache-2.0
支持英語、法語、西班牙語、德語、中文的BERT基礎版,是bert-base-multilingual-cased的輕量版本
大型語言模型 其他
B
Geotrend
20
0
Bert Base En Ru Cased
Apache-2.0
基於bert-base-multilingual-cased定製的精簡版本,支持英語和俄語,保持原始模型的表徵輸出和準確度。
大型語言模型 其他
B
Geotrend
17
0
Bert Base Ukr Eng Rus Uncased
這是bert-base-multilingual-uncased的精簡版本,僅保留詞彙表中的烏克蘭語、英語和俄語標記。
大型語言模型 Transformers
B
mshamrai
84
0
Distilbert Base 25lang Cased
Apache-2.0
這是distilbert-base-multilingual-cased的小型版本,支持25種語言,保持了原始模型的準確性。
大型語言模型 Transformers 支持多種語言
D
Geotrend
80
1
Xlm Mlm 17 1280
XLM模型是基於17種語言文本訓練的跨語言預訓練模型,採用掩碼語言建模(MLM)目標
大型語言模型 Transformers 支持多種語言
X
FacebookAI
201
2
Bert Base En Fr Nl Ru Ar Cased
Apache-2.0
這是bert-base-multilingual-cased的精簡版本,專門支持英語、法語、荷蘭語、俄語和阿拉伯語,保持原始模型的準確率。
大型語言模型 其他
B
Geotrend
22
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase