🚀 不快表現検出器
「不快表現検出器」は、Debertaベースのテキスト分類モデルで、テキストに不快な言葉が含まれているかどうかを予測します。このモデルは、tweet_evalデータセットでファインチューニングされており、このデータセットはTwitterの7つの異質なタスクから構成され、すべてがマルチクラスのツイート分類として設定されています。このタスクでは「不快」サブセットが使用されています。
このモデルは、モデレーションモデルシリーズの一部であり、以下の他のモデルも関心を引くかもしれません。
これらのモデルは、相互に支援し合い、より堅牢なモデレーションツールを構築するために組み合わせて使用できると考えています。
🚀 クイックスタート
不快表現検出器は、テキスト内の不快な言葉を検出するツールとして使用することを目的としており、コンテンツモデレーション、センチメント分析、またはソーシャルメディア分析などのアプリケーションに役立ちます。このモデルは、不快な言葉を含むツイートをフィルタリングまたはフラグ付けするため、あるいは不快な言葉の流行とパターンを分析するために使用できます。
✨ 主な機能
意図された用途と制限
不快表現検出器は、テキスト内の不快な言葉を検出するツールとして使用することを目的としています。しかし、ユーザーは以下の制限に注意する必要があります。
- このモデルはツイートでのみ訓練および評価されており、ツイートは短く非公式なテキストで、スラング、略語、絵文字、ハッシュタグ、またはユーザーメンションが含まれることがあります。このモデルは、ニュース記事、エッセイ、または本などの他のタイプのテキストではうまく機能しない可能性があります。
- このモデルは英語のツイートでのみ訓練および評価されています。このモデルは、他の言語や方言にうまく汎化できない可能性があります。
- このモデルはtweet_evalデータセットに基づいており、このデータセットはアノテーションプロセスにいくつかのバイアスやエラーがある可能性があります。ラベルは人間のアノテーターによって割り当てられており、彼らは不快な言葉の構成要素について異なる意見や基準を持っている可能性があります。また、このデータセットは、皮肉、皮肉、ユーモア、または婉曲表現など、不快な言葉のすべての可能な形式やコンテキストを網羅していない可能性があります。
- このモデルは統計的分類器であり、各ラベルに対する確率スコアを出力します。このモデルは、その予測についての説明や正当化を提供しません。また、このモデルは誤りを犯したり、偽陽性や偽陰性を生み出す可能性があります。ユーザーは、このモデルの予測をさらに検証または人間の監視なしに盲目的に信頼すべきではありません。
倫理的な考慮事項
これは、敏感で潜在的に有害な言葉を扱うモデルです。ユーザーは、このモデルをアプリケーションやコンテキストで使用または展開する際の倫理的な影響と潜在的なリスクを考慮する必要があります。生じる可能性のある倫理的な問題のいくつかは次のとおりです。
- このモデルは、データや社会に存在する既存のバイアスやステレオタイプを強化または拡大する可能性があります。たとえば、このモデルは、データ内の頻度や共起に基づいて特定の単語やトピックを不快な言葉と関連付ける可能性があり、それらの背後にある意味や意図を考慮しないことがあります。これにより、一部のグループや個人に対する不公平または不正確な予測が生じる可能性があります。
ユーザーは、このモデルを使用する目的、コンテキスト、および影響を慎重に検討し、潜在的な害を防止または軽減するための適切な措置を講じる必要があります。また、ユーザーはデータ主体のプライバシーと同意を尊重し、自らの管轄区域の関連する法律や規制を遵守する必要があります。
📦 インストール
モデルの訓練情報
プロパティ |
詳細 |
問題のタイプ |
マルチクラス分類 |
CO2排出量 (グラム) |
0.0108 |
検証指標
指標 |
値 |
損失 |
0.497 |
正解率 |
0.747 |
マクロF1 |
0.709 |
マイクロF1 |
0.747 |
加重F1 |
0.741 |
マクロ精度 |
0.722 |
マイクロ精度 |
0.747 |
加重精度 |
0.740 |
マクロ再現率 |
0.702 |
マイクロ再現率 |
0.747 |
加重再現率 |
0.747 |
💻 使用例
基本的な使用法
cURLを使用してこのモデルにアクセスすることができます。
$ curl -X POST -H "Authorization: Bearer YOUR_API_KEY" -H "Content-Type: application/json" -d '{"inputs": "I love AutoTrain"}' https://api-inference.huggingface.co/models/KoalaAI/OffensiveSpeechDetector
高度な使用法
Python APIを使用することもできます。
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model = AutoModelForSequenceClassification.from_pretrained("KoalaAI/OffensiveSpeechDetector", use_auth_token=True)
tokenizer = AutoTokenizer.from_pretrained("KoalaAI/OffensiveSpeechDetector", use_auth_token=True)
inputs = tokenizer("I love AutoTrain", return_tensors="pt")
outputs = model(**inputs)
📄 ライセンス
このモデルはCodeML OpenRAIL - M 0.1ライセンスの下でライセンスされており、これはBigCode OpenRAIL - Mライセンスのバリアントです。このライセンスにより、以下の条件を満たす限り、研究、商用、または非商用目的でこのモデルとその派生品を自由にアクセス、使用、変更、および配布することができます。
- 配布するモデルのコピーまたは派生品には、ライセンスのコピーとモデルの元のソースを含める必要があります。
- モデルまたはその派生品を、違法、有害、虐待的、差別的、または不快な目的で使用したり、社会的または環境的な害を引き起こしたり、それに寄与したりしてはなりません。
- モデルの訓練または評価に使用されたデータ主体のプライバシーと同意を尊重し、自らの管轄区域の関連する法律や規制を遵守する必要があります。
- モデルとその派生品は「現状のまま」提供され、いかなる種類の保証もなく、ライセンサーはモデルまたはその派生品の使用に起因する損害や損失に対して責任を負いません。
このモデルにアクセスまたは使用することで、このライセンスの条項に拘束されることに同意するものとします。このライセンスの条項に同意しない場合は、このモデルにアクセスまたは使用してはなりません。