O

One For All Toxicity V3

由FredZhang7開發
多語言文本毒性檢測模型,支持55種語言,用於識別有害或垃圾內容
下載量 570
發布時間 : 6/29/2023

模型概述

基於BERT架構的多語言文本分類模型,專門用於內容審核場景中的毒性檢測,可識別多種語言的有害文本內容

模型特點

多語言支持
支持55種語言的毒性檢測,包括主流語言和部分小眾語言
高準確率
英語訓練準確率達99.5%,其他語言達98.6%,最終驗證準確率96.8%
優化短文本檢測
通過人工標註補充訓練數據,改善了短文本分類精度
高效架構
基於bert-base-multilingual-cased優化,在資源有限條件下表現優異

模型能力

多語言文本分類
有害內容識別
垃圾內容檢測
內容審核輔助

使用案例

內容審核
社交媒體內容過濾
自動識別用戶生成內容中的有害信息
可有效減少人工審核工作量
多語言論壇管理
檢測多種語言的垃圾或不當內容
支持55種語言的即時檢測
網絡安全
網絡欺凌預防
識別聊天和評論中的攻擊性語言
幫助創建更安全的在線環境
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase