🚀 テキストモデレーション
このモデルはDeberta - v3に基づくテキスト分類モデルで、テキストが不快な内容を含むかどうかを予測します。
🚀 クイックスタート
このモデルは英語のテキストのみで学習されており、非英語の入力に対しては性能が低下する可能性があります。
✨ 主な機能
このモデルは以下のラベルに分類します。
カテゴリ |
ラベル |
定義 |
性的な内容 |
S |
性的興奮をそそる内容、例えば性的行為の記述や性サービスの宣伝(性教育や健康に関する内容を除く)。 |
憎悪 |
H |
人種、性別、民族、宗教、国籍、性的指向、障害の有無、カーストに基づく憎悪を表現、扇動、または促進する内容。 |
暴力 |
V |
暴力を促進または美化し、他人の苦しみや屈辱を祝う内容。 |
嫌がらせ |
HR |
現実生活で個人を悩ませるために使われる可能性のある内容、または嫌がらせが起こりやすくなる内容。 |
自傷行為 |
SH |
自傷行為(自殺、切り傷、摂食障害など)を促進、奨励、または描写する内容。 |
性的な内容(未成年) |
S3 |
18歳未満の個人を含む性的な内容。 |
憎悪(脅威的) |
H2 |
対象グループに対する暴力または重大な危害を含む憎悪的な内容。 |
暴力(詳細描写) |
V2 |
死、暴力、または重大な身体的損傷を極めて詳細に描写する暴力的な内容。 |
問題なし |
OK |
不快な内容ではない |
🔧 技術詳細
トレーニングの詳細
- 問題の種類: 多クラス分類
- CO2排出量 (グラム): 0.0397
検証指標
- 損失: 0.848
- 正解率: 0.749 (75%)
- マクロF1: 0.326
- マイクロF1: 0.749
- 加重F1: 0.703
- マクロ精度: 0.321
- マイクロ精度: 0.749
- 加重精度: 0.671
- マクロ再現率: 0.349
- マイクロ再現率: 0.749
- 加重再現率: 0.749
💻 使用例
基本的な使用法
cURLを使ってこのモデルにアクセスすることができます。
$ curl -X POST -H "Authorization: Bearer YOUR_API_KEY" -H "Content-Type: application/json" -d '{"inputs": "I love AutoTrain"}' https://api-inference.huggingface.co/models/KoalaAI/Text-Moderation
高度な使用法
Python APIを使ってモデルを使用する例です。
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model = AutoModelForSequenceClassification.from_pretrained("KoalaAI/Text-Moderation")
tokenizer = AutoTokenizer.from_pretrained("KoalaAI/Text-Moderation")
inputs = tokenizer("I love AutoTrain", return_tensors="pt")
outputs = model(**inputs)
logits = outputs.logits
probabilities = logits.softmax(dim=-1).squeeze()
id2label = model.config.id2label
labels = [id2label[idx] for idx in range(len(probabilities))]
label_prob_pairs = list(zip(labels, probabilities))
label_prob_pairs.sort(key=lambda item: item[1], reverse=True)
for label, probability in label_prob_pairs:
print(f"Label: {label} - Probability: {probability:.4f}")
上記のPythonコードの出力は次のようになります。
Label: OK - Probability: 0.9840
Label: H - Probability: 0.0043
Label: SH - Probability: 0.0039
Label: V - Probability: 0.0019
Label: S - Probability: 0.0018
Label: HR - Probability: 0.0015
Label: V2 - Probability: 0.0011
Label: S3 - Probability: 0.0010
Label: H2 - Probability: 0.0006
📚 ドキュメント
倫理的な考慮事項
このモデルは敏感で潜在的に有害な言語を扱うものです。ユーザーは、このモデルをアプリケーションやコンテキストで使用または展開する際の倫理的な影響と潜在的なリスクを考慮する必要があります。発生する可能性のある倫理的な問題のいくつかは次のとおりです。
- モデルは、データまたは社会に存在する既存の偏見やステレオタイプを強化または拡大する可能性があります。例えば、モデルはデータ内の頻度や共起に基づいて特定の単語やトピックを不快な言語と関連付けることがあり、その意味や意図を考慮しないことがあります。これにより、一部のグループや個人に対する不公平または不正確な予測が生じる可能性があります。
ユーザーは、このモデルを使用する目的、コンテキスト、および影響を慎重に考慮し、潜在的な危害を防止または軽減するための適切な措置を講じる必要があります。また、データ対象者のプライバシーと同意を尊重し、管轄区域内の関連する法律や規制に準拠する必要があります。
📄 ライセンス
このモデルはCodeML OpenRAIL - M 0.1ライセンスの下でライセンスされています。これはBigCode OpenRAIL - Mライセンスのバリアントです。このライセンスにより、以下の条件を満たす限り、研究、商業、または非商業目的でこのモデルとその派生品を自由にアクセス、使用、変更、および配布することができます。
- 配布するモデルのコピーまたは派生品には、ライセンスのコピーとモデルの元のソースを含める必要があります。
- モデルまたはその派生品を、違法、有害、虐待的、差別的、または不快な目的に使用してはならず、社会的または環境的な危害を引き起こしたり、それに寄与したりしてはなりません。
- モデルの学習または評価に使用されたデータの対象者のプライバシーと同意を尊重し、管轄区域内の関連する法律や規制に準拠する必要があります。
- モデルとその派生品は「現状のまま」提供され、いかなる保証もなく、ライセンサーはモデルまたはその派生品の使用に起因する損害や損失について責任を負いません。
このモデルにアクセスまたは使用することにより、このライセンスの条項に拘束されることに同意するものとします。このライセンスの条項に同意しない場合は、このモデルにアクセスまたは使用してはなりません。