R

Roberta Toxicity Classifier

s-nlpによって開発
RoBERTa-largeを微調整した毒性コメント分類モデルで、Jigsawコンペティションのデータセットで訓練され、英語テキストの毒性コンテンツを識別するために使用されます。
ダウンロード数 80.61k
リリース時間 : 3/2/2022

モデル概要

このモデルは、英語のコメントを毒性分類するために特別に設計されており、テキスト内の有害コンテンツを効果的に識別することができます。200万件のサンプルで訓練され、テストセットで優れた性能を発揮します。

モデル特徴

高性能分類
Jigsawコンペティションのテストセットで、AUC-ROC 0.98およびF1スコア0.76の優れた性能を達成しました。
大規模な訓練データ
Jigsawの3回のコンペティションの約200万件の英語サンプルを統合して訓練しました。
RoBERTaに基づく最適化
堅牢に最適化されたRoBERTa-largeの事前学習モデルを使用して微調整しました。

モデル能力

テキストの毒性分類
有害コンテンツ検出
自然言語処理

使用事例

コンテンツ審査
ソーシャルメディアのコメントフィルタリング
ソーシャルメディアプラットフォーム上の有害コメントを自動的に識別してフィルタリングします。
プラットフォーム上の毒性コンテンツを効果的に削減します。
オンラインコミュニティ管理
フォーラムやコミュニティの管理者が不適切な発言を迅速に識別するのを支援します。
コミュニティのコンテンツ品質を向上させます。
学術研究
言語の毒性研究
ネットワーク言語の毒性特徴とパターンを研究するために使用されます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase