Distilbert Base Multilingual Sentiment
Apache-2.0
基於 DistilBERT 的多語言情感分析模型,適用於多種語言的文本情感分類任務。
大型語言模型
Transformers

D
louaysboui
24
1
Mixtex Finetune
MIT
MixTex base_ZhEn 是一個支持中文和英語的圖像轉文本模型,基於MIT許可證發佈。
圖像生成文本 支持多種語言
M
wzmmmm
27
0
Drama Large Xnli Anli
基於facebook/drama-large在XNLI和ANLI數據集上微調的零樣本分類模型,支持15種語言的自然語言推理任務。
大型語言模型 支持多種語言
D
mjwong
23
0
Openbuddy Deepseek 10b V17.1 4k GGUF
其他
OpenBuddy/openbuddy-deepseek-10b-v17.1-4k的GGUF格式模型文件,支持多種語言,適用於文本生成任務。
大型語言模型 支持多種語言
O
tensorblock
81
1
Armenian Text Embeddings 1
基於multilingual-e5-base優化的亞美尼亞語文本嵌入模型,支持語義搜索和跨語言理解
文本嵌入
Transformers 支持多種語言

A
Metric-AI
578
18
Madlad400 7b Mt Bt Q4 K M GGUF
Apache-2.0
一個支持超過150種語言的多語言處理模型,適用於多種自然語言處理任務。
大型語言模型 支持多種語言
M
brauliobo
22
1
Opus Mt Tc Bible Big Deu Eng Fra Por Spa Mul
Apache-2.0
支持超過100種語言的通用Transformer模型,適用於多種自然語言處理任務
大型語言模型
Transformers 支持多種語言

O
Helsinki-NLP
203
1
Llama 3 EZO VLM 1
基於 Llama-3-8B-Instruct 的日語視覺語言模型,通過額外預訓練和指令調優增強日語能力
圖像生成文本 日語
L
AXCXEPT
19
7
Suzume Llama 3 8B Multilingual
其他
Suzume 8B是基於Llama 3的多語言微調版本,在近90,000個多語言對話上進行訓練,增強了多語言交流能力,同時保持了Llama 3的智能水平。
大型語言模型
Transformers

S
lightblue
9,494
112
Madlad400 3b Mt
Apache-2.0
一個支持超過100種語言的多語言處理模型,適用於多種自然語言處理任務。
大型語言模型 支持多種語言
M
google
7,035
119
Madlad400 8b Lm
Apache-2.0
一個支持超過200種語言的多語言處理模型,適用於多種自然語言處理任務。
大型語言模型 支持多種語言
M
jbochi
71
8
Madlad400 10b Mt
Apache-2.0
一個支持超過150種語言的多語言處理模型,適用於各種自然語言處理任務。
大型語言模型 支持多種語言
M
jbochi
120
18
Madlad400 7b Mt Bt
Apache-2.0
一個支持超過200種語言的通用語言模型,適用於多種自然語言處理任務。
大型語言模型 支持多種語言
M
jbochi
88
7
Madlad400 7b Mt
Apache-2.0
這是一個支持超過150種語言的通用模型,適用於多種自然語言處理任務。
大型語言模型 支持多種語言
M
jbochi
507
6
Serengeti E250
SERENGETI是一個覆蓋517種非洲語言及方言的大規模多語言預訓練模型,專注於填補非洲語言技術資源匱乏的空白。
大型語言模型
Transformers 其他

S
UBC-NLP
42
6
Fillmaskmodel
MIT
基於xlm-roberta-base微調的填充掩碼模型,用於預測被遮蔽的文本片段
大型語言模型
Transformers

F
Okyx
46
1
XLM RoBERTa Xtreme En
MIT
基於xlm-roberta-base在xtreme_en數據集上微調的標記分類模型,支持多語言文本處理。
序列標註
Transformers

X
arize-ai
5
0
Bloom 3b
Openrail
BLOOM 是一個多語言大語言模型,支持46種語言,專注於文本生成任務。
大型語言模型
Transformers 支持多種語言

B
bigscience
11.82k
92
Mminilmv2 L12 H384 Distilled From XLMR Large
MiniLMv2是微軟研究院推出的輕量級多語言預訓練模型,基於Transformer架構,適用於多種自然語言處理任務。
大型語言模型
Transformers

M
nreimers
21.39k
17
Mt5 M2o Chinese Simplified Crosssum
基於CrossSum數據集微調的mT5多對一模型,能夠用中文(簡體)總結多種語言編寫的文本
文本生成
Transformers 支持多種語言

M
csebuetnlp
43
20
Xquad Th Mbert Base
基於多語言BERT的泰語抽取式問答模型,能區分大小寫,適用於泰語問答任務。
問答系統
Transformers

X
zhufy
16
0
Canine C
Apache-2.0
CANINE-c是一個在多語言文本上預訓練的字符級編碼模型,無需顯式標記化處理,直接操作Unicode字符。
大型語言模型
Transformers 支持多種語言

C
google
191.50k
32
Xlm Roberta Base Finetuned Marc En J Run
MIT
基於xlm-roberta-base在亞馬遜多語言評論數據集上微調的文本分類模型
文本分類
Transformers

X
jx88
13
0
Mt5 Large Finetuned Mnli Xtreme Xnli
Apache-2.0
基於多語言T5模型微調,專為零樣本文本分類任務設計,支持15種語言
大型語言模型
Transformers 支持多種語言

M
alan-turing-institute
964
13
Bert Base Multilingual Xquad
基於bert-base-multilingual-uncased的多語言問答模型,在XQuAD數據集上微調
問答系統
Transformers 其他

B
alon-albalak
24
0
Cino Base V2
Apache-2.0
CINO是針對中國少數民族語言的多語言預訓練模型,支持中文及7種少數民族語言,基於XLM-R框架構建。
大型語言模型
Transformers 支持多種語言

C
hfl
156
5
Tf Xlm Roberta Base
XLM-RoBERTa是一種跨語言句子編碼器的擴展版本,基於100種語言的2.5T數據訓練,在多項跨語言基準測試中表現優異。
大型語言模型
Transformers

T
jplu
4,820
1
Tf Xlm Roberta Large
XLM-RoBERTa是一個大規模跨語言句子編碼器,基於100種語言的2.5TB數據訓練,在多項跨語言基準測試中表現優異。
大型語言模型
Transformers

T
jplu
236
1
Muril Adapted Local
Apache-2.0
MuRIL是谷歌開源的基於17種印度語言及其轉寫版本預訓練的BERT模型,支持多語言表示。
大型語言模型 支持多種語言
M
monsoon-nlp
24
2
Xlm Roberta Comet Small
mMiniLM-L12xH384 XLM-R 是一個輕量化的多語言預訓練模型,基於 MiniLMv2 架構,通過關係蒸餾技術壓縮了傳統 XLM-RoBERTa 模型。
大型語言模型
Transformers

X
Unbabel
45
2
Xlm Roberta Base Finetuned Marc En
MIT
基於xlm-roberta-base在亞馬遜多語言評論數據集上微調的文本分類模型
文本分類
Transformers

X
lewtun
16
0
Bert Base Multilingual Uncased Finetuned
基於bert-base-multilingual-uncased微調的模型,具體用途未明確說明
大型語言模型
Transformers

B
am-shb
16
0
Xlm Roberta Base Finetuned Marc
MIT
基於xlm-roberta-base在亞馬遜多語言評論數據集上微調的文本分類模型
文本分類
Transformers

X
begar
9
0
Bert Base En Fr Es De Zh Cased
Apache-2.0
支持英語、法語、西班牙語、德語、中文的BERT基礎版,是bert-base-multilingual-cased的輕量版本
大型語言模型 其他
B
Geotrend
20
0
Bert Base En Ru Cased
Apache-2.0
基於bert-base-multilingual-cased定製的精簡版本,支持英語和俄語,保持原始模型的表徵輸出和準確度。
大型語言模型 其他
B
Geotrend
17
0
Bert Base Ukr Eng Rus Uncased
這是bert-base-multilingual-uncased的精簡版本,僅保留詞彙表中的烏克蘭語、英語和俄語標記。
大型語言模型
Transformers

B
mshamrai
84
0
Distilbert Base 25lang Cased
Apache-2.0
這是distilbert-base-multilingual-cased的小型版本,支持25種語言,保持了原始模型的準確性。
大型語言模型
Transformers 支持多種語言

D
Geotrend
80
1
Xlm Mlm 17 1280
XLM模型是基於17種語言文本訓練的跨語言預訓練模型,採用掩碼語言建模(MLM)目標
大型語言模型
Transformers 支持多種語言

X
FacebookAI
201
2
Bert Base En Fr Nl Ru Ar Cased
Apache-2.0
這是bert-base-multilingual-cased的精簡版本,專門支持英語、法語、荷蘭語、俄語和阿拉伯語,保持原始模型的準確率。
大型語言模型 其他
B
Geotrend
22
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98