U

Unbiased Toxic Roberta

由unitary開發
基於PyTorch Lightning和Hugging Face Transformers的毒性評論分類工具,提供針對Jigsaw競賽訓練的三種模型
下載量 52.70k
發布時間 : 3/2/2022

模型概述

Detoxify是一個用於檢測文本毒性的工具,包含針對不同Jigsaw競賽訓練的三種模型,能夠識別威脅、淫穢、侮辱和基於身份仇恨等不同類型的毒性內容。

模型特點

多模型支持
提供三種針對不同Jigsaw競賽訓練的模型,分別適用於不同場景的毒性檢測
多語言支持
multilingual模型支持7種語言的毒性檢測
偏見最小化
unbiased模型專門針對減少身份提及相關的偏見進行了優化

模型能力

毒性內容檢測
多標籤分類
多語言文本分析
偏見評估

使用案例

內容審核
社交媒體評論審核
自動識別和標記社交媒體平臺上的有毒評論
可幫助審核人員快速識別需要處理的評論
論壇內容過濾
過濾在線論壇中的侮辱性、威脅性或仇恨言論
維護健康的討論環境
學術研究
語言偏見研究
研究不同語言和文化背景下的毒性表達方式
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase