# RoBERTaファインチューニング

Sentiment Roberta Large English 3 Classes
このモデルはRoBERTaアーキテクチャに基づく英語感情分析モデルで、テキストをポジティブ、ニュートラル、ネガティブの3クラスに分類できます。
テキスト分類 Transformers 英語
S
j-hartmann
5,144
23
KAILAS
Apache-2.0
KAILASはRoBERTaアーキテクチャに基づくTransformerモデルで、NASA科学ミッション理事会のアプリケーション向けにドメイン適応され、統一天文語彙タグのアノテーションに使用されます。
シーケンスラベリング Safetensors 英語
K
adsabs
51
1
Roberta Webis CPC
MIT
このモデルはFacebookAIのroberta-baseをWebi-CPC-11データセットでファインチューニングしたバージョンで、主にテキスト分類タスクに使用され、評価セットで84.32%の精度を達成しました。
テキスト分類 Transformers
R
Amaan39
47
1
Roberta Base Ai Text Detection V1
Apache-2.0
RoBERTa-baseをファインチューニングしたモデルで、AI生成の英文テキストを検出します。
テキスト分類 Transformers 英語
R
fakespot-ai
574
1
Youtube Xlm Roberta Base Sentiment Multilingual
cardiffnlp/twitter-xlm-roberta-base-sentiment-multilingualを基にファインチューニングしたYouTubeコメント感情分析モデル、精度80.17%
テキスト分類
Y
AmaanP314
91
1
Roguebert Toxicity 85K
MIT
roberta-baseをファインチューニングした毒性コメント分類モデルで、コメント内の有害な内容を検出します。
テキスト分類 Transformers 英語
R
HyperX-Sentience
35
2
Xlm Roberta Twitter Spam Classification
MIT
xlm-roberta-largeをファインチューニングしたツイッター/Xプラットフォームのスパムコンテンツ分類モデルで、ツイートがスパムかどうかを識別可能
テキスト分類 Transformers 英語
X
cja5553
20
1
Deid Roberta I2b2 NER Medical Reports
MIT
このモデルはobi/deid_roberta_i2b2を未知のデータセットでファインチューニングしたバージョンで、主にテキスト処理タスクに使用されます。
シーケンスラベリング Transformers
D
theekshana
28
1
Toxic Prompt Roberta
MIT
RoBERTaベースのテキスト分類モデルで、会話システム内の毒性プロンプトや返答を検出するために使用されます
テキスト分類 Transformers
T
Intel
416
7
Roberta Base Legal Multi Downstream Indian Ner
多言語法テキストで事前学習されたRoBERTaモデルで、インド法の固有表現認識タスクにファインチューニング済み
シーケンスラベリング Transformers
R
MHGanainy
66
2
Robbert V2 Dutch Base Finetuned Emotion Valence
MIT
このモデルはRobBERT-v2オランダ語ベースモデルを感情価タスクでファインチューニングしたバージョンで、オランダ語テキストの感情価(valence)スコアを予測します。
テキスト分類 Transformers
R
antalvdb
61
1
Emotion RoBERTa Czech6
MIT
RoBERTaアーキテクチャを基にファインチューニングしたチェコ語感情分類モデルで、6つの感情カテゴリーを識別可能
テキスト分類 Transformers その他
E
visegradmedia-emotion
79
1
Emotion RoBERTa German6 V7
MIT
RoBERTaをファインチューニングしたドイツ語感情分類モデルで、テキストを怒り、恐怖、嫌悪、悲しみ、喜び、およびこれらの感情がないという6つの感情カテゴリーに分類できます。
テキスト分類 Transformers ドイツ語
E
visegradmedia-emotion
355
3
Topic Govt Regulation
RoBERTa-largeをファインチューニングしたテキスト分類器で、ニュース記事が政府規制問題に関連しているかどうかを判断するために特別に設計されています。
テキスト分類 Transformers 英語
T
dell-research-harvard
15
2
Roberta Base Biomedical Clinical Es Ner
Apache-2.0
このモデルはBSC-LT/roberta-base-biomedical-clinical-esを基に、生物医学臨床スペイン語テキストにおける固有表現抽出(NER)タスク用にファインチューニングされたバージョンです。
シーケンスラベリング Transformers
R
manucos
25
1
Fine Tuned Cardiffnlp Twitter Roberta Base Sentiment Finance Dataset
このモデルはcardiffnlp/twitter-roberta-base-sentimentをツイッター金融ニュース感情データセットでファインチューニングしたバージョンで、金融テキストの感情分析に特化しています。
テキスト分類 Transformers 英語
F
arwisyah
64
1
Fictoroberta
RoBERTaベースモデルをファインチューニングしたテキストスタイル分類器で、ノンフィクションの直截的なスタイルとフィクションの記述的なスタイルを区別します。
テキスト分類 Transformers
F
bekushal
75
1
Bias Identificaiton45
RoBERTaをファインチューニングした偏見識別モデル、10種類の偏見タイプを分類
テキスト分類 Transformers
B
PriyaPatel
61
4
Uk Ner Web Trf 13class
MIT
Roberta Largeウクライナ語モデルをファインチューニングした固有表現抽出モデル、13種類のエンティティタイプを認識可能
シーケンスラベリング その他
U
dchaplinsky
71
4
Nuner V1 Orgs
FewNERD-fine-supervisedでファインチューニングされたnumind/NuNER-v1.0モデルで、テキスト中の組織エンティティ(ORG)を識別するために使用されます
シーケンスラベリング Transformers 複数言語対応
N
guishe
6,836
2
Roberta Large Llm Content Detector
その他
RoBERTa Largeをファインチューニングした生成テキスト検出モデル、AI生成コンテンツの識別に使用
テキスト分類 Transformers 英語
R
SuperAnnotate
21.51k
7
Roberta Base Topic Classification Nyt News
MIT
roberta-baseをファインチューニングしたニューストピック分類モデルで、ニューヨークタイムズのニュースデータセットでトレーニングされ、精度は0.91です。
テキスト分類 Transformers
R
dstefa
14.09k
9
Historical Newspaper Ner
Roberta-largeをファインチューニングした固有表現認識モデルで、OCRエラーを含む可能性のある歴史的な新聞テキスト専用です。
シーケンスラベリング Transformers 英語
H
dell-research-harvard
209
8
Roberta Gen News
MIT
roberta-baseをファインチューニングしたニューステキスト穴埋め予測モデルで、約1300万件の英語ニュース記事でトレーニングされています
大規模言語モデル Transformers 英語
R
AndyReas
17
1
Sciroshot
Apache-2.0
RoBERTa-largeベースのゼロショットテキスト分類モデルで、科学分野に最適化されており、クロスドメインタスクで優れた性能を発揮
テキスト分類 Transformers 複数言語対応
S
BSC-LT
83
10
Deproberta Large Depression
RoBERTa-largeをファインチューニングしたうつ病検出モデルで、英語のソーシャルメディア投稿のうつ病度合いを、うつ病なし、中度、重度の3つに分類します。
テキスト分類 Transformers 英語
D
rafalposwiata
987
7
Roberta Qa Japanese
MIT
rinna/japanese-roberta-baseを基にファインチューニングした日本語抽出型QAモデル、JaQuADデータセットで学習
質問応答システム Transformers 日本語
R
tsmatz
104
9
Deproberta Large V1
RoBERTa-largeアーキテクチャをベースに、Redditのうつ病関連スレッドで事前学習された言語モデルで、うつ病検出専用に設計されています。
大規模言語モデル Transformers 英語
D
rafalposwiata
17
1
Roberta Base Squad
MIT
roberta-baseモデルをファインチューニングした質問応答モデルで、SQuAD形式のデータセットで訓練されています
質問応答システム Transformers
R
DLL888
14
0
Instafoodroberta NER
MIT
ソーシャルメディアの非公式テキスト向けに設計された食品エンティティ認識モデル、RoBERTaアーキテクチャを基にファインチューニング
シーケンスラベリング Transformers 英語
I
Dizex
252
12
Roberta Base Mnli Uf Ner 1024 Train V0
MIT
MNLIデータセットでファインチューニングされたRoBERTa-baseモデルのバージョンで、自然言語推論タスクに適しています
大規模言語モデル Transformers
R
mariolinml
26
1
Roberta Large Semeval2012 V2 Mask Prompt A Nce
RelBERTはRoBERTa-largeをファインチューニングした意味関係理解モデルで、語彙関係分類や類推問題タスクに特化しています。
テキスト埋め込み Transformers
R
research-backup
16
0
Legal Roberta Base Cuad
Apache-2.0
RoBERTaアーキテクチャに基づく法律文書処理モデル、CUADデータセットでファインチューニング済み
大規模言語モデル Transformers
L
alex-apostolo
165
0
Nf Cats
MIT
RoBERTaベースの質問分類モデルで、非事実的質問のカテゴリを識別
テキスト分類 Transformers 英語
N
Lurunchik
245
5
Twitter Roberta Base Dec2021 Tweetner7 Random
このモデルはTwitterデータで事前学習されたRoBERTaモデルで、tner/tweetner7データセットでファインチューニングされ、ツイート内の固有表現認識に使用されます。
シーケンスラベリング Transformers
T
tner
43
2
Xlm Roberta Large Ner Hrl Finetuned Ner
xlm-roberta-large-ner-hrlモデルを玩具データセットでファインチューニングした固有表現認識モデル
シーケンスラベリング Transformers
X
kinanmartin
29
0
Xlm Roberta Base Finetuned Panx All
MIT
XLM-RoBERTa-baseモデルを特定のデータセットでファインチューニングしたバージョンで、主にシーケンスラベリングタスクに使用され、評価F1スコアは0.8561です。
大規模言語モデル Transformers
X
huangjia
29
0
Twitter Roberta Base Dec2021 Tweetner7 All
TweetNER7データセットでファインチューニングされたTwitter-RoBERTaモデルに基づく固有表現認識モデルで、ツイート内のエンティティ認識に特化しています。
シーケンスラベリング Transformers
T
tner
6
0
Roberta Large Tweetner7 All
roberta-largeをtner/tweetner7データセットでファインチューニングした固有表現認識モデルで、ツイッターテキストの固有表現認識に特化
シーケンスラベリング Transformers
R
tner
170.06k
1
Roberta Base Ner Demo
モンゴル語RoBERTa-baseモデルをファインチューニングした固有表現認識(NER)モデル
シーケンスラベリング Transformers その他
R
Buyandelger
15
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase