# RoBERTaアーキテクチャ最適化

Xlm Roberta Base Intent Twin
MIT
XLM-RoBERTa-baseはRoBERTaアーキテクチャに基づく多言語事前学習モデルで、ロシア語と英語をサポートし、テキスト分類タスクに適しています。
テキスト分類 Transformers 複数言語対応
X
forthisdream
30
1
Roberta Psych
RoBERTaアーキテクチャに基づく事前学習モデルで、心理カウンセリングと治療対話テキストに特化して最適化されています
大規模言語モデル Transformers
R
mlaricheva
13
2
Bertweetbr
Apache-2.0
BERTweet.BRはポルトガル語ツイートに特化した事前学習済み言語モデルで、RoBERTaアーキテクチャに基づき、1億件のポルトガル語ツイートで学習されています。
大規模言語モデル Transformers その他
B
melll-uff
339
10
Bertovski
BERTovskiはブルガリア語とマケドニア語のテキストで訓練された大規模事前学習言語モデルで、RoBERTaアーキテクチャを採用し、MaCoCuプロジェクトの成果です。
大規模言語モデル その他
B
MaCoCu
28
1
Bsc Bio Ehr Es
Apache-2.0
スペイン語の生物医学および臨床テキストに最適化された事前学習言語モデルで、臨床NLPタスクをサポートします。
大規模言語モデル Transformers スペイン語
B
PlanTL-GOB-ES
624
12
Robertuito Sentiment Analysis
RoBERTuitoベースのスペイン語ツイート感情分析モデル、POS(ポジティブ)/NEG(ネガティブ)/NEU(ニュートラル)の3分類に対応
テキスト分類 スペイン語
R
pysentimiento
1.0M
88
Bertweet Large
MIT
BERTweetは英語ツイート向けに設計された初の大規模事前学習言語モデルで、RoBERTaアーキテクチャに基づいて訓練され、ソーシャルメディアテキスト分析に適しています。
大規模言語モデル Transformers
B
vinai
2,853
12
Palobert Base Greek Uncased V1
RoBERTaベースのギリシャ語言語モデル、ギリシャのソーシャルメディアテキスト専用に設計
大規模言語モデル Transformers その他
P
gealexandri
20
4
Wangchanberta Base Att Spm Uncased
78.5GBのタイ語テキストで事前学習されたRoBERTa BASEモデル、マスク言語モデリングおよびテキスト分類タスクに適応
大規模言語モデル Transformers その他
W
airesearch
34.38k
43
Magbert Ner
Apache-2.0
MagBERT-NERはモロッコフランス語(マグリブ地域)向けに特別に設計された最先端の固有表現認識モデルです。
シーケンスラベリング Transformers フランス語
M
TypicaAI
37
4
Roberta Base Ca
Apache-2.0
RoBERTaアーキテクチャに基づくカタルーニャ語の事前学習言語モデルで、スペイン政府機関によって開発されました。
大規模言語モデル Transformers その他
R
PlanTL-GOB-ES
15.56k
5
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase