Llm Jp Modernbert Base
Apache-2.0
基於modernBERT-base架構的日語大語言模型,支持最大8192的序列長度,使用3.4TB日語語料訓練
大型語言模型
Transformers 日語

L
llm-jp
1,398
5
Syllaberta
SyllaBERTa是一款實驗性基於Transformer的掩碼語言模型,專為處理古希臘語文本設計,採用音節級分詞。
大型語言模型
Transformers 其他

S
Ericu950
19
1
Duo Distilled
Apache-2.0
DUO是一個用於文本生成的預訓練模型,可用於掩碼語言建模任務,在OpenWebText語料庫上進行訓練,具有良好的性能。
大型語言模型
Transformers 英語

D
s-sahoo
98.21k
1
Moderncamembert Cv2 Base
MIT
基於1萬億高質量法語文本預訓練的法語語言模型,是ModernBERT的法語版本
大型語言模型
Transformers 法語

M
almanach
232
2
Moderncamembert Base
MIT
ModernCamemBERT是基於1T高質量法語文本語料庫預訓練的法語語言模型,是ModernBERT的法語版本,專注於長上下文和高效推理速度。
大型語言模型
Transformers 法語

M
almanach
213
4
Rnafm
基於非編碼RNA數據、採用掩碼語言建模(MLM)目標預訓練的RNA基礎模型
蛋白質模型 其他
R
multimolecule
6,791
1
Duo
Apache-2.0
DUO是一個基於Transformers庫的預訓練模型,專注於掩碼語言建模任務,適用於自然語言處理領域。
大型語言模型
Transformers 英語

D
s-sahoo
212
1
Medbert Base
Apache-2.0
medBERT-base是基於BERT的模型,專注於醫學和胃腸病學文本的掩碼語言建模任務。
大型語言模型
Transformers 英語

M
suayptalha
24
5
Nomic Xlm 2048
基於XLM-Roberta基礎模型微調的版本,採用RoPE(旋轉位置編碼)替換原始位置嵌入,支持2048序列長度
大型語言模型
Transformers

N
nomic-ai
440
6
Camembertv2 Base
MIT
CamemBERTv2是基於2750億法語文本語料預訓練的法語語言模型,是CamemBERT的第二代版本,採用RoBERTa架構,優化了分詞器和訓練數據。
大型語言模型
Transformers 法語

C
almanach
1,512
11
Ankh3 Xl
Ankh3是一個基於T5架構的蛋白質語言模型,通過聯合優化掩碼語言建模和序列補全任務進行預訓練,適用於蛋白質特徵提取和序列分析。
蛋白質模型
Transformers

A
ElnaggarLab
131
2
Rinalmo
RiNALMo是基於掩碼語言建模(MLM)目標預訓練的非編碼RNA(ncRNA)模型,在大量非編碼RNA序列上通過自監督方式訓練。
蛋白質模型 其他
R
multimolecule
21.38k
2
Roberta Kaz Large
基於RoBERTa架構的哈薩克語語言模型,採用RobertaForMaskedLM從頭訓練而成,適用於哈薩克語文本處理任務。
大型語言模型
Transformers 其他

R
nur-dev
93
3
Codeberta Small V1
CodeBERTa是一個基於RoBERTa架構的代碼理解模型,專門針對多種編程語言訓練,能夠高效處理代碼相關任務。
大型語言模型
Transformers 其他

C
claudios
16
1
Saudibert
SaudiBERT是首個專注於沙特方言文本的預訓練大語言模型,基於大規模沙特推特和論壇語料庫訓練。
大型語言模型
Transformers 阿拉伯語

S
faisalq
233
6
Caduceus Ps Seqlen 131k D Model 256 N Layer 16
Apache-2.0
Caduceus-PS是一個具有反向互補等變性的DNA序列建模模型,專為長序列處理設計。
分子模型
Transformers

C
kuleshov-group
2,618
14
Multilingual Albert Base Cased 128k
Apache-2.0
基於掩碼語言建模(MLM)目標預訓練的多語言ALBERT模型,支持60+種語言,具有參數共享的輕量級架構
大型語言模型
Transformers 支持多種語言

M
cservan
277
2
Multilingual Albert Base Cased 64k
Apache-2.0
基於掩碼語言建模(MLM)目標預訓練的多語言ALBERT模型,支持64k詞表大小,區分大小寫
大型語言模型
Transformers 支持多種語言

M
cservan
52
1
Multilingual Albert Base Cased 32k
Apache-2.0
基於掩碼語言建模目標預訓練的多語言ALBERT模型,支持50+種語言,區分大小寫
大型語言模型
Transformers 支持多種語言

M
cservan
243
2
Nasa Smd Ibm V0.1
Apache-2.0
Indus是基於RoBERTa的僅編碼器Transformer模型,專為NASA科學任務理事會(SMD)應用領域優化,適用於科學信息檢索和智能搜索。
大型語言模型
Transformers 英語

N
nasa-impact
631
33
Albertina 1b5 Portuguese Ptbr Encoder
MIT
Albertina 1.5B PTBR 是一個面向巴西葡萄牙語變體的基礎大型語言模型,屬於BERT家族的編碼器,基於Transformer神經網絡架構,並在DeBERTa模型基礎上開發。
大型語言模型
Transformers 其他

A
PORTULAN
83
4
Tahrirchi Bert Base
Apache-2.0
TahrirchiBERT-base是一個烏茲別克語(拉丁字母)的僅編碼器Transformer文本模型,擁有1.1億參數,通過掩碼語言建模目標預訓練。
大型語言模型
Transformers 其他

T
tahrirchi
88
9
Dictabert
針對現代希伯來語的最先進BERT語言模型套件
大型語言模型
Transformers 其他

D
dicta-il
50.83k
8
Parlbert German Law
MIT
基於德語法律數據訓練的BERT模型,專注於法律文本處理
大型語言模型
Transformers 德語

P
InfAI
62
2
BEREL 3.0
Apache-2.0
BEREL 3.0是基於BERT架構的嵌入模型,專門為拉比編碼語言設計,為相關研究和應用提供支持。
大型語言模型
Transformers 其他

B
dicta-il
802
3
Legalnlp Bert
MIT
BERTikal 是一個針對巴西法律語言的大寫敏感BERT基礎模型,基於BERTimbau的檢查點,使用巴西法律文本訓練而成。
大型語言模型
Transformers 其他

L
felipemaiapolo
97
7
Albertina 100m Portuguese Ptbr Encoder
MIT
Albertina 100M PTBR是一個面向巴西葡萄牙語的基礎大語言模型,屬於BERT家族的編碼器,基於Transformer神經網絡架構,並在DeBERTa模型基礎上開發。
大型語言模型
Transformers 其他

A
PORTULAN
131
7
Albertina 100m Portuguese Ptpt Encoder
MIT
Albertina 100M PTPT 是一個面向歐洲葡萄牙語(葡萄牙)的基礎大語言模型,屬於BERT家族的編碼器,基於Transformer神經網絡架構,並在DeBERTa模型基礎上開發。
大型語言模型
Transformers 其他

A
PORTULAN
171
4
Roberta News
MIT
基於RoBERTa架構的新聞領域掩碼語言模型,專門針對新聞文本進行預訓練
大型語言模型
Transformers 英語

R
AndyReas
17
1
Arbertv2
ARBERTv2是基於現代標準阿拉伯語(MSA)訓練的升級版BERT模型,訓練語料達243GB文本,包含278億詞元。
大型語言模型
Transformers 阿拉伯語

A
UBC-NLP
267
6
Norbert3 Base
Apache-2.0
NorBERT 3 是新一代挪威語語言模型,基於BERT架構,支持書面挪威語(Bokmål)和新挪威語(Nynorsk)。
大型語言模型
Transformers 其他

N
ltg
345
7
Bert Mlm Medium
一箇中等規模的BERT語言模型,採用掩碼語言建模(MLM)預訓練目標。
大型語言模型
Transformers

B
aajrami
14
0
Switch C 2048
Apache-2.0
基於掩碼語言建模任務訓練的混合專家(MoE)模型,參數規模達1.6萬億,採用類似T5的架構但前饋層替換為稀疏MLP層
大型語言模型
Transformers 英語

S
google
73
290
Esm2 T36 3B UR50D
MIT
ESM-2是基於掩碼語言建模目標訓練的新一代蛋白質模型,適用於各類以蛋白質序列為輸入的下游任務微調。
蛋白質模型
Transformers

E
facebook
3.5M
22
My Awesome Eli5 Mlm Model
Apache-2.0
基於distilroberta-base微調的模型,具體用途未明確說明
大型語言模型
Transformers

M
stevhliu
425
1
Esm2 T12 35M UR50D
MIT
ESM-2是基於掩碼語言建模目標訓練的前沿蛋白質模型,適用於各類蛋白質序列分析任務
蛋白質模型
Transformers

E
facebook
332.83k
15
Esm2 T6 8M UR50D
MIT
ESM-2是基於掩碼語言建模目標訓練的新一代蛋白質模型,適用於對蛋白質序列進行各類任務的微調。
蛋白質模型
Transformers

E
facebook
1.5M
21
Esm2 T48 15B UR50D
MIT
ESM-2是基於掩碼語言建模目標訓練的最先進蛋白質模型,適用於對蛋白質序列進行各種任務的微調。
蛋白質模型
Transformers

E
facebook
20.80k
20
Microbert Coptic Mx
這是一個針對科普特語的MicroBERT模型,通過掩碼語言建模和XPOS標註的監督進行預訓練。
大型語言模型
Transformers 其他

M
lgessler
141
0
Finbert Pretrain
FinBERT是基於金融通訊文本預訓練的BERT模型,專為金融自然語言處理任務設計。
大型語言模型
Transformers 其他

F
FinanceInc
23
10
- 1
- 2
- 3
- 4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98