🚀 ModernBERT大模型偏见类型分类器
该模型可识别并将文本偏见分为多种类别,包括种族、宗教、性别、年龄等偏见,为自然语言处理任务中的偏见检测和缓解提供了有力支持。
🚀 快速开始
这个模型是基于 ModernBERT-large 在一个合成的有偏见陈述和问题的数据集上微调得到的。该数据集由 Mistal 7B 生成,是 GUS-Net 论文 的一部分。
✨ 主要特性
- 基于强大的
ModernBERT-large
基础模型进行微调。
- 能够对文本中的多种偏见类型进行多标签分类。
- 在合成数据集上取得了较高的评估指标。
📦 安装指南
使用该模型需要安装 transformers
库,可使用以下命令进行安装:
pip install transformers
💻 使用示例
基础用法
以下是使用 Hugging Face Transformers 库调用该模型的示例代码:
from transformers import pipeline
classifier = pipeline(
"text-classification",
model="cirimus/modernbert-large-bias-type-classifier",
return_all_scores=True
)
text = "Tall people are so clumsy."
predictions = classifier(text)
for pred in sorted(predictions[0], key=lambda x: x['score'], reverse=True)[:5]:
print(f"{pred['label']}: {pred['score']:.3f}")
📚 详细文档
模型详情
属性 |
详情 |
基础模型 |
ModernBERT-large |
微调数据集 |
合成有偏见语料库 |
标签数量 |
11 |
问题类型 |
多标签分类 |
语言 |
英语 |
许可证 |
MIT |
微调框架 |
Hugging Face Transformers |
模型创建方式
该模型使用以下超参数进行偏见检测的微调:
- 学习率:
3e-5
- 批量大小:16
- 权重衰减:
0.01
- 热身步数:500
- 优化器:AdamW
- 评估指标:精确率、召回率、F1 分数(加权)、准确率
数据集
合成数据集包含由 Mistal 7B 生成的有偏见陈述和问题,是 GUS-Net 论文的一部分。它涵盖了 11 种偏见类别:
- 种族
- 宗教
- 性别
- 年龄
- 国籍
- 性取向
- 社会经济
- 教育
- 残疾
- 政治
- 身体特征
评估结果
该模型在合成数据集的测试分割上进行了评估。使用阈值 0.5
的整体指标如下:
宏平均指标:
指标 |
值 |
准确率 |
0.983 |
精确率 |
0.930 |
召回率 |
0.914 |
F1 分数 |
0.921 |
马修斯相关系数 |
0.912 |
每个标签的结果:
标签 |
准确率 |
精确率 |
召回率 |
F1 分数 |
马修斯相关系数 |
支持样本数 |
阈值 |
种族 |
0.975 |
0.871 |
0.889 |
0.880 |
0.866 |
388 |
0.5 |
宗教 |
0.994 |
0.962 |
0.970 |
0.966 |
0.962 |
335 |
0.5 |
性别 |
0.976 |
0.930 |
0.925 |
0.927 |
0.913 |
615 |
0.5 |
年龄 |
0.990 |
0.964 |
0.931 |
0.947 |
0.941 |
375 |
0.5 |
国籍 |
0.972 |
0.924 |
0.881 |
0.902 |
0.886 |
554 |
0.5 |
性取向 |
0.993 |
0.960 |
0.957 |
0.958 |
0.955 |
301 |
0.5 |
社会经济 |
0.964 |
0.909 |
0.818 |
0.861 |
0.842 |
516 |
0.5 |
教育 |
0.982 |
0.873 |
0.933 |
0.902 |
0.893 |
330 |
0.5 |
残疾 |
0.986 |
0.923 |
0.887 |
0.905 |
0.897 |
283 |
0.5 |
政治 |
0.988 |
0.958 |
0.938 |
0.948 |
0.941 |
438 |
0.5 |
身体特征 |
0.993 |
0.961 |
0.920 |
0.940 |
0.936 |
238 |
0.5 |
预期用途
该模型旨在检测和分类文本中的 11 种偏见类别。可用于以下应用:
局限性和偏见
- 合成性质:数据集由合成文本组成,可能无法完全代表现实世界的偏见。
- 类别重叠:某些偏见可能存在重叠,导致精确分类存在挑战。
- 特定领域泛化:该模型可能无法很好地泛化到合成数据集范围之外的领域。
环境影响
- 使用硬件:NVIDIA RTX4090
- 训练时间:约 2 小时
- 碳排放:约 0.08 千克二氧化碳(通过 ML CO2 影响计算器 计算)
引用
如果使用该模型,请按以下方式引用:
@inproceedings{JunquedeFortuny2025c,
title = {Bias Detection with ModernBERT-Large},
author = {Enric Junqué de Fortuny},
year = {2025},
howpublished = {\url{https://huggingface.co/cirimus/modernbert-large-bias-type-classifier}},
}
📄 许可证
本项目采用 MIT 许可证。