# RoBERTaの微調整

Roberta Base Suicide Prediction Phr
MIT
RoBERTa-baseを微調整したテキスト分類モデルで、テキスト中の自殺傾向を検出するために使用され、精度は96.5%に達します。
テキスト分類 Transformers 英語
R
vibhorag101
24.88k
11
FOMC RoBERTa
FOMCの鷹派 - 鴿派 - 中立分類タスクに使用する微調整されたRoBERTaモデル
テキスト分類 Transformers 英語
F
gtfintechlab
654
9
Roberta Base Tweetner7 All
roberta-baseをベースにtweetner7データセットで微調整された固有表現認識モデルで、ツイッターテキストのエンティティ認識に特化しています。
シーケンスラベリング Transformers
R
tner
30
0
Twitter Roberta Base WNUT
Twitter RoBERTaモデルをWNUT 17データセットで微調整した命名エンティティ認識モデルで、テキスト中の特定のエンティティカテゴリを識別するために使用されます。
シーケンスラベリング Transformers
T
emilys
16
0
Roberta Scarcasm Discriminator
MIT
RoBERTa-baseアーキテクチャに基づく皮肉テキスト分類器で、テキストが皮肉内容かどうかを区別するために使用されます。
テキスト分類 Transformers
R
XSY
30
0
Roberta Large Cuad
このモデルは、RoBERTa大型モデルをベースに、CUAD法律契約データセットを使用して微調整されたバージョンで、法律契約書の審査タスクに特化しています。
質問応答システム Transformers 英語
R
akdeniz27
145
3
Roberta Argument
RoBERTa(base)の事前学習モデルを微調整した論弁テキスト分類モデルで、テキストに論弁内容が含まれているかどうかを識別するために使用されます。
テキスト分類 英語
R
chkla
495
15
Emotion English Roberta Large
RoBERTa-largeを微調整した英語テキストの感情分類モデルで、7種類の基本感情を識別できます。
テキスト分類 Transformers 英語
E
j-hartmann
3,076
14
Roberta Base Finetuned Cluener2020 Chinese
RoBERTa-Baseアーキテクチャに基づいて微調整された中国語命名エンティティ識別モデルで、CLUENER2020データセットに特化して最適化されています。
シーケンスラベリング 中国語
R
uer
2,254
38
ROBERTA Tweet Sentiment 50 2eps
Twitter RoBERTaの基礎感情モデルを微調整したバージョンで、ツイートの感情分析に使用されます。
テキスト分類 Transformers
R
joe5campbell
16
0
Roberta Base Ca Cased Sts
Apache-2.0
RoBERTaアーキテクチャに基づくカタルーニャ語の意味的テキスト類似度モデルで、テキストの類似度を評価するために設計されています。
テキスト分類 Transformers その他
R
projecte-aina
147
1
Roberta Toxicity Classifier
RoBERTa-largeを微調整した毒性コメント分類モデルで、Jigsawコンペティションのデータセットで訓練され、英語テキストの毒性コンテンツを識別するために使用されます。
テキスト分類 Transformers 英語
R
s-nlp
80.61k
56
Purchase Intention English Roberta Large
このモデルはRoBERTaアーキテクチャに基づいており、英語テキストで表現される購買意向を分析し、二値分類(購買意向あり/なし)を行います。
テキスト分類 Transformers 英語
P
j-hartmann
31
5
Roberta Base Bne Finetuned Hate Speech Offensive Spanish
Apache-2.0
このモデルは、BSC-TeMU/roberta-base-bneをMNLIデータセットで微調整したバージョンで、主に自然言語推論タスクに使用されます。
テキスト分類 Transformers
R
JonatanGk
240
2
Paraphrase Roberta Es
このモデルは、スペイン語のフレーズの解釈状況を評価するために使用され、roberta-base-bneの事前学習モデルを微調整して作成されました。
テキスト分類 Transformers スペイン語
P
Prompsit
327
2
Roberta Base Finetuned Ner Agglo Twitter
MIT
RoBERTa-baseアーキテクチャに基づいて微調整された命名エンティティ認識モデルで、Twitterテキストに特化して最適化されています。
シーケンスラベリング Transformers
R
ArBert
15
0
Roberta Base Bne Finetuned Sqac
Apache-2.0
このモデルは、roberta-base-bneをベースに、sqacデータセットで微調整されたスペイン語の質問応答モデルです。
大規模言語モデル Transformers
R
JonatanGk
19
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase