# 多尺寸選擇

Roberta Mini Word Chinese Cluecorpussmall
基於CLUECorpusSmall預訓練的中文詞級別RoBERTa中型模型,相比字符模型在多項任務中表現更優
大型語言模型 中文
R
uer
44
1
Chinese Roberta L 2 H 128
這是一個基於CLUECorpusSmall預訓練的中文RoBERTa中型模型,具有8層網絡和512維隱藏層,適用於多種中文自然語言處理任務。
大型語言模型 中文
C
uer
1,141
11
Chinese Roberta L 2 H 256
基於CLUECorpusSmall預訓練的中文RoBERTa模型,包含8層網絡和512隱藏層維度,適用於多種中文NLP任務。
大型語言模型 中文
C
uer
26
1
Chinese Roberta L 6 H 512
由UER-py預訓練的中文RoBERTa模型系列中的中型版本,基於CLUECorpusSmall語料訓練,適用於多種中文NLP任務。
大型語言模型 中文
C
uer
19
0
Chinese Roberta L 4 H 256
基於CLUECorpusSmall預訓練的中文RoBERTa模型,參數規模為8層512隱藏層,適用於多種中文NLP任務。
大型語言模型 中文
C
uer
70
3
Chinese Roberta L 8 H 256
基於CLUECorpusSmall預訓練的中文RoBERTa模型,參數規模為8層512隱藏單元,適用於多種中文NLP任務。
大型語言模型 中文
C
uer
15
1
Chinese Roberta L 8 H 512
基於CLUECorpusSmall預訓練的中文RoBERTa模型,參數規模為8層512隱藏單元,支持掩碼語言建模任務。
大型語言模型 中文
C
uer
76
3
Chinese Roberta L 6 H 768
基於CLUECorpusSmall預訓練的中文RoBERTa中型模型,具有8層網絡和512維隱藏層,適用於多種中文NLP任務。
大型語言模型 中文
C
uer
222
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase