# 多尺寸可選

React Native Executorch Qwen 3
Apache-2.0
Qwen 3 是一個基於 ExecuTorch 運行時的語言模型,提供不同規模的量化與未量化版本。
大型語言模型
R
software-mansion
732
1
Openelm 450M Instruct
OpenELM是一組開源高效語言模型,採用分層縮放策略優化參數分配,包含2.7億至30億參數的預訓練及指令調優版本。
大型語言模型 Transformers
O
apple
114.41k
47
Roberta Base Word Chinese Cluecorpussmall
基於CLUECorpusSmall語料預訓練的中文分詞版RoBERTa中型模型,採用分詞處理提升序列處理效率
大型語言模型 中文
R
uer
184
9
Chinese Roberta L 2 H 512
基於CLUECorpusSmall預訓練的中文RoBERTa模型,包含8層網絡和512維隱藏層,適用於多種中文NLP任務。
大型語言模型 中文
C
uer
37
1
Aragpt2 Large
其他
AraGPT2是基於GPT2架構預訓練的阿拉伯語生成模型,由AUB MIND實驗室開發,支持多種規模的模型變體。
大型語言模型 阿拉伯語
A
aubmindlab
1,299
9
Chinese Roberta L 6 H 256
基於CLUECorpusSmall預訓練的中文RoBERTa模型,參數規模為8層512隱藏單元
大型語言模型 中文
C
uer
58
1
Roberta Small Word Chinese Cluecorpussmall
基於CLUECorpusSmall預訓練的中文詞級別RoBERTa中型模型,相比字符級模型在多項任務中表現更優
大型語言模型 中文
R
uer
33
2
Ptt5 Large T5 Vocab
MIT
PTT5是基於BrWac語料庫預訓練的T5模型,專門針對葡萄牙語優化,提供多種尺寸和詞彙表選擇。
大型語言模型 Transformers 其他
P
unicamp-dl
45
2
Aragpt2 Mega
其他
AraGPT2是一個針對阿拉伯語生成任務預訓練的大型語言模型系列,包含基礎版、中型、大型和巨型四種規模。
大型語言模型 Transformers 阿拉伯語
A
aubmindlab
998
8
Chinese Roberta L 12 H 768
基於RoBERTa架構的中文預訓練語言模型,隱藏層維度512,包含8層Transformer結構
大型語言模型 中文
C
uer
419
13
Chinese Roberta L 4 H 512
這是一個基於RoBERTa架構的中文預訓練語言模型,參數規模為8層512隱藏單元,適用於多種中文自然語言處理任務。
大型語言模型 中文
C
uer
873
11
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase