Tucano 2b4
Apache-2.0
Tucano-2b4是一個專門針對葡萄牙語進行原生預訓練的大規模語言模型,基於變換器架構,在2000億標記的GigaVerbo數據集上訓練。
大型語言模型
Transformers 其他

T
TucanoBR
1,478
4
Roberta Large 1160k
MIT
基於北歐語料庫訓練的多語言RoBERTa大模型,支持瑞典語、挪威語、丹麥語和英語
大型語言模型
Transformers 支持多種語言

R
AI-Sweden-Models
1,159
10
Roberta Base Turkish Uncased
MIT
這是一個基於土耳其語的RoBERTa基礎模型,預訓練數據來源於土耳其語維基百科、土耳其語OSCAR語料庫以及部分新聞網站。
大型語言模型
Transformers

R
TURKCELL
109
7
Madlad400 7b Mt
Apache-2.0
基於T5架構的多語言機器翻譯模型,支持400+種語言,使用2500億token訓練
機器翻譯 支持多種語言
M
google
4,450
15
Indicbertv2 MLM Only
MIT
IndicBERT是一個支持23種印度語言及英語的多語言語言模型,擁有2.78億參數,在IndicCorp v2上訓練並在IndicXTREME基準測試中評估。
大型語言模型
Transformers 支持多種語言

I
ai4bharat
87.60k
8
Roberta Large Japanese
基於日語維基百科和CC-100日語部分預訓練的大型日語RoBERTa模型,適用於日語自然語言處理任務。
大型語言模型
Transformers 日語

R
nlp-waseda
227
23
Roberta Base Turkish Uncased
MIT
基於土耳其語預訓練的RoBERTa基礎模型,使用38GB土耳其語語料訓練
大型語言模型
Transformers 其他

R
burakaytan
57
16
Opus Mt Tc Big Tr En
這是一個基於Transformer架構的大型神經機器翻譯模型,專門用於從土耳其語翻譯到英語。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
98.62k
29
Opus Mt Tc Big Lt En
這是一個用於從立陶宛語翻譯到英語的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
312
2
Opus Mt Tc Big Sh En
這是一個用於將塞爾維亞-克羅地亞語(sh)翻譯成英語(en)的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
28.03k
0
Opus Mt Tc Big Gmq En
這是一個用於從北日耳曼語支(gmq)翻譯到英語(en)的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
552
0
Opus Mt Tc Big El En
這是一個從現代希臘語(el)到英語(en)的神經機器翻譯模型,屬於OPUS-MT項目的一部分,旨在提供高質量的翻譯服務。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
302
4
Opus Mt Tc Big Cat Oci Spa En
這是一個用於從加泰羅尼亞語、奧克語和西班牙語翻譯到英語的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
24
2
Opus Mt Tc Big En Es
OPUS-MT項目提供的英語到西班牙語神經機器翻譯模型,基於transformer-big架構
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
29.31k
14
Opus Mt Tc Big En It
這是一個用於英語到意大利語翻譯的神經機器翻譯模型,屬於OPUS-MT項目的一部分,採用transformer-big架構。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
16.22k
5
Opus Mt Tc Big En Gmq
這是一個用於從英語翻譯至北日耳曼語支(包括丹麥語、法羅語、冰島語、挪威博克馬爾語、挪威尼諾斯克語和瑞典語)的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
372
3
Opus Mt Tc Big En Cat Oci Spa
這是一個用於從英語翻譯到加泰羅尼亞語、奧克語和西班牙語的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
30
4
Opus Mt Tc Big En Ar
這是一個用於從英語翻譯到阿拉伯語的神經機器翻譯模型,屬於OPUS-MT項目的一部分,支持多目標語言翻譯。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
4,562
23
Opus Mt Tc Big De Zle
這是一個用於從德語翻譯到東斯拉夫語族(白俄羅斯語、俄語、烏克蘭語)的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
63
0
Icebert Xlmr Ic3
基於RoBERTa-base架構的冰島語掩碼語言模型,通過xlm-roberta-base微調訓練而成
大型語言模型
Transformers 其他

I
mideind
24
0
Icebert Ic3
基於RoBERTa-base架構訓練的冰島語掩碼語言模型,使用fairseq框架訓練
大型語言模型
Transformers 其他

I
mideind
16
0
Plt5 Small
plT5是基於T5架構、針對波蘭語優化的語言模型,支持翻譯、摘要生成、問答和閱讀理解等任務。
大型語言模型
Transformers 其他

P
allegro
58
2
Bert Base Arabert
AraBERT是基於谷歌BERT架構的阿拉伯語預訓練語言模型,專為阿拉伯語自然語言理解任務設計。
大型語言模型 阿拉伯語
B
aubmindlab
74.71k
29
Mt5 Xxl
Apache-2.0
mT5是谷歌推出的多語言文本到文本轉換模型,支持101種語言,基於mC4數據集預訓練,適用於多種NLP任務。
大型語言模型
Transformers 支持多種語言

M
google
7,532
68
Indot5 Base
基於印尼語mC4數據集預訓練的T5(文本到文本轉換Transformer)基礎模型,需微調後使用
大型語言模型
Transformers 其他

I
Wikidepia
635
1
Ruperta Base
RuPERTa是基於大型西班牙語語料庫訓練的無大小寫RoBERTa模型,採用RoBERTa改進的預訓練方法,適用於多種西班牙語NLP任務。
大型語言模型 西班牙語
R
mrm8488
39
2
Mbarthez
Apache-2.0
BARThez是一個基於BART架構的法語序列到序列預訓練模型,特別適合生成任務如抽象摘要。
大型語言模型
Transformers 法語

M
moussaKam
1,032
6
Gerpt2 Large
MIT
GerPT2是德語版GPT2的大規模版本,基於CC-100語料庫和德語維基百科訓練,在德語文本生成任務上表現優異。
大型語言模型 德語
G
benjamin
75
9
Icebert
基於RoBERTa-base架構訓練的冰島語掩碼語言模型,使用16GB冰島語文本數據訓練
大型語言模型
Transformers 其他

I
mideind
1,203
3
Bert Base Qarib60 1790k
QARiB是基於約4.2億條推文和1.8億條文本句子訓練的阿拉伯語及方言BERT模型,支持多種下游NLP任務。
大型語言模型 阿拉伯語
B
ahmedabdelali
16
2
Barthez
Apache-2.0
BARThez是基於BART架構的法語序列到序列預訓練模型,特別適合生成式任務如抽象摘要。
大型語言模型
Transformers 法語

B
moussaKam
1,487
17
Roberta Tagalog Base
針對塔加洛語(菲律賓語)開發的RoBERTa模型,採用TLUnified語料庫訓練,支持菲律賓語NLP任務
大型語言模型
Transformers 其他

R
jcblaise
710
4
Bert Base Arabertv02
AraBERT是基於BERT架構的阿拉伯語預訓練語言模型,專門針對阿拉伯語理解任務優化。
大型語言模型 阿拉伯語
B
aubmindlab
666.17k
35
Berdou 500k
基於Bertimbau-Base模型在巴西聯邦官方公報50萬條實例上進行MLM(掩碼語言建模)微調的葡萄牙語BERT模型
大型語言模型
Transformers

B
flavio-nakasato
16
0
Norbert
NorBERT 是一個針對挪威語優化的 BERT 模型,由奧斯陸大學語言技術組開發。它是 NorLM 計劃的一部分,旨在為挪威語提供高質量的語言模型。
大型語言模型 其他
N
ltg
199
7
Bert Base Qarib60 1970k
QARiB是基於阿拉伯語及方言的BERT模型,訓練數據包含約4.2億條推文和1.8億條文本句子,支持多種阿拉伯語NLP任務。
大型語言模型 阿拉伯語
B
ahmedabdelali
41
1
Mbart Large 50 Finetuned Opus En Pt Translation
該模型是mBART-50大型模型在opus100數據集上針對英語到葡萄牙語翻譯任務微調的版本,支持高質量的雙語翻譯。
機器翻譯
Transformers 支持多種語言

M
Narrativa
87
12
Sroberta F
Apache-2.0
基於43GB克羅地亞語和塞爾維亞語數據集訓練的RoBERTa模型,支持掩碼語言模型任務。
大型語言模型
Transformers 其他

S
Andrija
51
2
Opus Mt En Mul
Apache-2.0
這是一個基於Transformer架構的英語到多語言的神經機器翻譯模型,支持超過100種目標語言的翻譯任務。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
3,235
21
Rubert Base Cased Conversational
基於OpenSubtitles、Dirty、Pikabu及Taiga語料庫社交媒體板塊訓練的俄語對話模型
大型語言模型 其他
R
DeepPavlov
165.49k
20
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98