R

Roberta Toxicity Classifier

Developed by s-nlp
RoBERTa-largeを微調整した毒性コメント分類モデルで、Jigsawコンペティションのデータセットで訓練され、英語テキストの毒性コンテンツを識別するために使用されます。
Downloads 80.61k
Release Time : 3/2/2022

Model Overview

このモデルは、英語のコメントを毒性分類するために特別に設計されており、テキスト内の有害コンテンツを効果的に識別することができます。200万件のサンプルで訓練され、テストセットで優れた性能を発揮します。

Model Features

高性能分類
Jigsawコンペティションのテストセットで、AUC-ROC 0.98およびF1スコア0.76の優れた性能を達成しました。
大規模な訓練データ
Jigsawの3回のコンペティションの約200万件の英語サンプルを統合して訓練しました。
RoBERTaに基づく最適化
堅牢に最適化されたRoBERTa-largeの事前学習モデルを使用して微調整しました。

Model Capabilities

テキストの毒性分類
有害コンテンツ検出
自然言語処理

Use Cases

コンテンツ審査
ソーシャルメディアのコメントフィルタリング
ソーシャルメディアプラットフォーム上の有害コメントを自動的に識別してフィルタリングします。
プラットフォーム上の毒性コンテンツを効果的に削減します。
オンラインコミュニティ管理
フォーラムやコミュニティの管理者が不適切な発言を迅速に識別するのを支援します。
コミュニティのコンテンツ品質を向上させます。
学術研究
言語の毒性研究
ネットワーク言語の毒性特徴とパターンを研究するために使用されます。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase