# RoBERTa架構優化

Xlm Roberta Base Intent Twin
MIT
XLM-RoBERTa-base 是一個基於 RoBERTa 架構的多語言預訓練模型,支持俄語和英語,適用於文本分類任務。
文本分類 Transformers 支持多種語言
X
forthisdream
30
1
Robbert 2023 Dutch Base
MIT
RobBERT-2023是基於荷蘭語的最新語言模型,採用RoBERTa架構,使用更新的荷蘭語分詞器和訓練數據,以適應荷蘭語的最新發展變化。
大型語言模型 Transformers 其他
R
DTAI-KULeuven
339
7
Roberta Psych
基於RoBERTa架構的預訓練模型,專門針對心理諮詢與治療對話文本進行優化
大型語言模型 Transformers
R
mlaricheva
13
2
Bertweetbr
Apache-2.0
BERTweet.BR是一個專門針對葡萄牙語推文預訓練的語言模型,基於RoBERTa架構,在1億條葡萄牙語推文上訓練而成。
大型語言模型 Transformers 其他
B
melll-uff
339
10
Bertovski
BERTovski是基於保加利亞語和馬其頓語文本訓練的大型預訓練語言模型,採用RoBERTa架構,是MaCoCu項目的成果。
大型語言模型 其他
B
MaCoCu
28
1
Bsc Bio Ehr Es
Apache-2.0
針對西班牙語生物醫學和臨床文本優化的預訓練語言模型,支持臨床NLP任務
大型語言模型 Transformers 西班牙語
B
PlanTL-GOB-ES
624
12
Wangchanberta Base Att Spm Uncased
基於78.5GB泰語文本預訓練的RoBERTa BASE模型,適用於掩碼語言建模及文本分類任務
大型語言模型 Transformers 其他
W
airesearch
34.38k
43
Robertuito Sentiment Analysis
基於RoBERTuito的西班牙語推文情感分析模型,支持POS(積極)/NEG(消極)/NEU(中性)三類情感分類
文本分類 西班牙語
R
pysentimiento
1.0M
88
Palobert Base Greek Uncased V1
基於RoBERTa的希臘語語言模型,專為希臘社交媒體文本設計
大型語言模型 Transformers 其他
P
gealexandri
20
4
Bertweet Large
MIT
BERTweet是首個針對英文推文的大規模預訓練語言模型,基於RoBERTa架構訓練,適用於社交媒體文本分析。
大型語言模型 Transformers
B
vinai
2,853
12
Magbert Ner
Apache-2.0
MagBERT-NER 是專為摩洛哥法語(馬格里布地區)設計的尖端命名實體識別模型。
序列標註 Transformers 法語
M
TypicaAI
37
4
Roberta Base Ca
Apache-2.0
基於RoBERTa架構的加泰羅尼亞語預訓練語言模型,由西班牙政府機構開發
大型語言模型 Transformers 其他
R
PlanTL-GOB-ES
15.56k
5
Quberta
基於RoBERTa架構的南克丘亞語(科拉奧和昌卡方言)預訓練模型,使用500萬token訓練
大型語言模型 Transformers 其他
Q
Llamacha
289
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase