U

Unbiased Toxic Roberta

unitaryによって開発
PyTorch LightningとHugging Face Transformersを基盤とした有害コメント分類ツールで、Jigsawコンペティション向けに訓練された3つのモデルを提供
ダウンロード数 52.70k
リリース時間 : 3/2/2022

モデル概要

Detoxifyはテキストの有害性を検出するツールで、異なるJigsawコンペティション向けに訓練された3つのモデルを含み、脅威、わいせつ、侮辱、アイデンティティに基づくヘイトなど様々な種類の有害コンテンツを識別できます。

モデル特徴

マルチモデル対応
異なるJigsawコンペティション向けに訓練された3つのモデルを提供し、様々なシナリオの有害性検出に対応
多言語サポート
multilingualモデルは7言語の有害性検出をサポート
バイアス最小化
unbiasedモデルはアイデンティティ言及に関連するバイアスを軽減するよう特別に最適化

モデル能力

有害コンテンツ検出
マルチラベル分類
多言語テキスト分析
バイアス評価

使用事例

コンテンツモデレーション
ソーシャルメディアコメント審査
ソーシャルメディアプラットフォーム上の有害コメントを自動識別・タグ付け
モデレーターが処理すべきコメントを迅速に識別するのに役立つ
フォーラムコンテンツフィルタリング
オンラインフォーラムの侮辱的、脅迫的、ヘイトスピーチをフィルタリング
健全な議論環境を維持
学術研究
言語バイアス研究
異なる言語や文化的背景における有害表現方法の研究
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase