T

Toxiguardrail

由 nicholasKluge 开发
ToxiGuardrail 是基于 RoBERTa 微调的模型,用于评估文本的毒性和潜在危害。
下载量 263.36k
发布时间 : 6/7/2023

模型简介

该模型能够对句子的毒性和潜在危害进行评分,适用于内容审核和安全对话系统。

模型特点

毒性评分
能够对文本的毒性和潜在危害进行评分,正得分表示无害,负得分表示有害。
基于 RoBERTa
基于 RoBERTa 模型进行微调,具有较好的性能和准确性。
多语言支持
支持英语文本的毒性检测。

模型能力

文本毒性检测
内容安全评估

使用案例

内容审核
社交媒体内容过滤
用于检测社交媒体上的有害内容,自动过滤或标记有毒言论。
能够准确识别并评分有害文本,帮助维护社区安全。
安全对话系统
AI 对话安全评估
用于评估 AI 生成的回复是否含有有害内容,确保对话安全。
能够区分有害和无害回复,提供安全评分。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase