模型简介
模型特点
模型能力
使用案例
🚀 文本分类模型:安全与不适宜内容检测
本模型旨在将文本分为“安全”和“不适宜工作环境(NSFW)”两类,适用于内容审核和过滤应用。它基于Distilbert-base模型,使用包含190,000个标记文本样本的数据集进行训练。在性能方面,F1分数达到了0.974。
✨ 主要特性
- 精准分类:能够准确地将文本分为“安全”和“不适宜工作环境(NSFW)”两类。
- 高性能:在F1、准确率、精确率和召回率等指标上表现出色。
- 易于集成:可以轻松集成到大型系统中,用于内容审核和过滤。
📦 安装指南
文档未提供具体安装步骤,故跳过此章节。
💻 使用示例
基础用法
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("eliasalbouzidi/distilbert-nsfw-text-classifier")
model = AutoModelForSequenceClassification.from_pretrained("eliasalbouzidi/distilbert-nsfw-text-classifier")
高级用法
from transformers import pipeline
pipe = pipeline("text-classification", model="eliasalbouzidi/distilbert-nsfw-text-classifier")
📚 详细文档
模型描述
该模型可直接用于将文本分类为“安全”或“不适宜工作环境(NSFW)”。它接受字符串文本作为输入,并输出两个类别上的概率分布,概率最高的类别即为预测类别。
- 开发者:Elias Al Bouzidi, Massine El Khader, Abdellah Oumida, Mohammed Sbaihi, Eliott Binard
- 模型类型:60M
- 语言(NLP):英语
- 许可证:apache - 2.0
使用场景
该模型可集成到更大的系统中,用于内容审核或过滤。
训练数据
用于微调文本分类模型的训练数据包含一个大型文本语料库,这些文本被标记为“安全”和“不适宜工作环境(NSFW)”两类。数据集共有190,000个示例,分布如下:
- 117,000个标记为“安全”的示例
- 63,000个标记为“不适宜工作环境(NSFW)”的示例
该数据集是通过从网络上抓取数据并利用现有的开源数据集组装而成的。大部分数据集由图像和场景的描述组成。其主要目的是防止扩散模型生成不适宜内容,但也可用于其他审核目的。
你可以访问该数据集:https://huggingface.co/datasets/eliasalbouzidi/NSFW-Safe-Dataset
训练超参数
训练过程中使用了以下超参数:
- 学习率:1e - 05
- 训练批次大小:32
- 评估批次大小:32
- 随机种子:42
- 优化器:Adam(beta1 = 0.9,beta2 = 0.999,epsilon = 1e - 08)
- 学习率调度器类型:线性
- 学习率调度器热身步数:600
- 训练轮数:3
- 混合精度训练:Native AMP
训练结果
训练损失 | 轮数 | 步数 | 验证损失 | 准确率 | F1分数 | Fbeta 1.6 | 假阳性率 | 假阴性率 | 精确率 | 召回率 |
---|---|---|---|---|---|---|---|---|---|---|
0.3367 | 0.0998 | 586 | 0.1227 | 0.9586 | 0.9448 | 0.9447 | 0.0331 | 0.0554 | 0.9450 | 0.9446 |
0.0998 | 0.1997 | 1172 | 0.0919 | 0.9705 | 0.9606 | 0.9595 | 0.0221 | 0.0419 | 0.9631 | 0.9581 |
0.0896 | 0.2995 | 1758 | 0.0900 | 0.9730 | 0.9638 | 0.9600 | 0.0163 | 0.0448 | 0.9724 | 0.9552 |
0.087 | 0.3994 | 2344 | 0.0820 | 0.9743 | 0.9657 | 0.9646 | 0.0191 | 0.0367 | 0.9681 | 0.9633 |
0.0806 | 0.4992 | 2930 | 0.0717 | 0.9752 | 0.9672 | 0.9713 | 0.0256 | 0.0235 | 0.9582 | 0.9765 |
0.0741 | 0.5991 | 3516 | 0.0741 | 0.9753 | 0.9674 | 0.9712 | 0.0251 | 0.0240 | 0.9589 | 0.9760 |
0.0747 | 0.6989 | 4102 | 0.0689 | 0.9773 | 0.9697 | 0.9696 | 0.0181 | 0.0305 | 0.9699 | 0.9695 |
0.0707 | 0.7988 | 4688 | 0.0738 | 0.9781 | 0.9706 | 0.9678 | 0.0137 | 0.0356 | 0.9769 | 0.9644 |
0.0644 | 0.8986 | 5274 | 0.0682 | 0.9796 | 0.9728 | 0.9708 | 0.0135 | 0.0317 | 0.9773 | 0.9683 |
0.0688 | 0.9985 | 5860 | 0.0658 | 0.9798 | 0.9730 | 0.9718 | 0.0144 | 0.0298 | 0.9758 | 0.9702 |
0.0462 | 1.0983 | 6446 | 0.0682 | 0.9800 | 0.9733 | 0.9723 | 0.0146 | 0.0290 | 0.9756 | 0.9710 |
0.0498 | 1.1982 | 7032 | 0.0706 | 0.9800 | 0.9733 | 0.9717 | 0.0138 | 0.0303 | 0.9768 | 0.9697 |
0.0484 | 1.2980 | 7618 | 0.0773 | 0.9797 | 0.9728 | 0.9696 | 0.0117 | 0.0345 | 0.9802 | 0.9655 |
0.0483 | 1.3979 | 8204 | 0.0676 | 0.9800 | 0.9734 | 0.9742 | 0.0172 | 0.0248 | 0.9715 | 0.9752 |
0.0481 | 1.4977 | 8790 | 0.0678 | 0.9798 | 0.9731 | 0.9737 | 0.0170 | 0.0255 | 0.9717 | 0.9745 |
0.0474 | 1.5975 | 9376 | 0.0665 | 0.9782 | 0.9713 | 0.9755 | 0.0234 | 0.0191 | 0.9618 | 0.9809 |
0.0432 | 1.6974 | 9962 | 0.0691 | 0.9787 | 0.9718 | 0.9748 | 0.0213 | 0.0213 | 0.9651 | 0.9787 |
0.0439 | 1.7972 | 10548 | 0.0683 | 0.9811 | 0.9748 | 0.9747 | 0.0150 | 0.0254 | 0.9750 | 0.9746 |
0.0442 | 1.8971 | 11134 | 0.0710 | 0.9809 | 0.9744 | 0.9719 | 0.0118 | 0.0313 | 0.9802 | 0.9687 |
0.0425 | 1.9969 | 11720 | 0.0671 | 0.9810 | 0.9747 | 0.9756 | 0.0165 | 0.0232 | 0.9726 | 0.9768 |
0.0299 | 2.0968 | 12306 | 0.0723 | 0.9802 | 0.9738 | 0.9758 | 0.0187 | 0.0217 | 0.9692 | 0.9783 |
0.0312 | 2.1966 | 12892 | 0.0790 | 0.9804 | 0.9738 | 0.9731 | 0.0146 | 0.0279 | 0.9755 | 0.9721 |
0.0266 | 2.2965 | 13478 | 0.0840 | 0.9815 | 0.9752 | 0.9728 | 0.0115 | 0.0302 | 0.9806 | 0.9698 |
0.0277 | 2.3963 | 14064 | 0.0742 | 0.9808 | 0.9746 | 0.9770 | 0.0188 | 0.0199 | 0.9690 | 0.9801 |
0.0294 | 2.4962 | 14650 | 0.0764 | 0.9809 | 0.9747 | 0.9765 | 0.0179 | 0.0211 | 0.9705 | 0.9789 |
0.0304 | 2.5960 | 15236 | 0.0795 | 0.9811 | 0.9748 | 0.9742 | 0.0142 | 0.0266 | 0.9763 | 0.9734 |
0.0287 | 2.6959 | 15822 | 0.0783 | 0.9814 | 0.9751 | 0.9741 | 0.0134 | 0.0272 | 0.9775 | 0.9728 |
0.0267 | 2.7957 | 16408 | 0.0805 | 0.9814 | 0.9751 | 0.9740 | 0.0133 | 0.0274 | 0.9777 | 0.9726 |
0.0318 | 2.8956 | 16994 | 0.0767 | 0.9814 | 0.9752 | 0.9756 | 0.0154 | 0.0240 | 0.9744 | 0.9760 |
0.0305 | 2.9954 | 17580 | 0.0779 | 0.9815 | 0.9753 | 0.9751 | 0.0146 | 0.0251 | 0.9757 | 0.9749 |
我们选择了F - beta1.6分数最高的检查点。
框架版本
- Transformers 4.40.1
- Pytorch 2.3.0 + cu121
- Datasets 2.19.0
- Tokenizers 0.19.1
适用范围外的使用
本模型不得用于任何非法活动。
🔧 技术细节
模型可能会根据所使用的训练数据表现出偏差。对于非英语文本,模型的性能可能不佳。对于讽刺、反语或其他修辞手法的文本,模型也可能难以处理。此外,模型可能会产生误报或漏报,从而导致文本分类错误。
建议
用户应了解模型的局限性和偏差,并相应地使用它。同时,用户应做好处理误报和漏报的准备。建议针对特定的下游任务对模型进行微调,并在相关数据集上评估其性能。
📄 许可证
本模型使用的许可证为apache - 2.0。
📞 联系我们
如果您有任何问题或反馈,请发送邮件至eliasalbouzidi@gmail.com。








