T

Toxic Prompt Roberta

由Intel開發
基於RoBERTa的文本分類模型,用於檢測對話系統中的毒性提示和回覆
下載量 416
發布時間 : 9/16/2024

模型概述

該模型基於RoBERTa架構,在ToxicChat和Jigsaw Unintended Bias數據集上微調,專門用於識別對話中的毒性內容,可作為AI系統的安全護欄。

模型特點

雙重數據集微調
同時在ToxicChat和Jigsaw Unintended Bias數據集上微調,提高檢測準確性
倫理考量
訓練時考慮了人口子組的公平性,減少分類偏差
高效推理
基於優化的RoBERTa架構,適合即時檢測場景

模型能力

毒性文本檢測
對話內容監控
即時內容審核

使用案例

用戶體驗監控
即時毒性檢測
監控對話內容,檢測用戶毒性行為
可發出警告或提供行為指導
內容審核
自動審核系統
在群聊中自動刪除毒性消息或禁言違規用戶
維護健康的對話環境
AI安全
聊天機器人防護
阻止聊天機器人響應毒性輸入
減少AI系統被濫用的風險
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase