🚀 包容性分类模型
本模型是一个意大利语分类模型,它基于 意大利语BERT模型 进行微调,用于对意大利语中的包容性语言进行分类。该模型能有效检测文本是否使用了包容性语言,为促进语言的公平性和包容性提供了有力支持。
✨ 主要特性
- 多类别检测:能够检测三种类别,分别为
inclusive
(句子具有包容性,例如 "Il personale docente e non docente")、not_inclusive
(句子不具有包容性,例如 "I professori")和 not_pertinent
(句子与任务无关,例如 "La scuola è chiusa")。
- 高性能表现:在测试集上的评估结果显示,相较于其他模型(如TF - IDF + MLP、TF - IDF + SVM等),本模型在准确率和F1值等指标上表现更优。
📦 安装指南
原文档未提供安装步骤,故跳过此章节。
📚 详细文档
训练数据
该模型在包含以下内容的数据集上进行训练:
- 8580条训练句子
- 1073条验证句子
- 1072条测试句子
数据收集由包容性语言领域的专家手动标注(数据集目前尚未公开)。
训练过程
该模型基于 意大利语BERT模型 进行微调,使用了以下超参数:
max_length
:128
batch_size
:128
learning_rate
:5e - 5
warmup_steps
:500
epochs
:10(根据验证准确率选择最佳模型)
optimizer
:AdamW
评估结果
该模型在测试集上进行评估,得到以下结果:
模型 |
准确率 |
包容性F1值 |
非包容性F1值 |
无关性F1值 |
TF - IDF + MLP |
0.68 |
0.63 |
0.69 |
0.66 |
TF - IDF + SVM |
0.61 |
0.53 |
0.60 |
0.78 |
TF - IDF + GB |
0.74 |
0.74 |
0.76 |
0.72 |
多语言模型 |
0.86 |
0.88 |
0.89 |
0.83 |
本模型 |
0.89 |
0.88 |
0.92 |
0.85 |
本模型与在相同数据上训练的多语言模型进行了比较,取得了更好的结果。
引用信息
如果您使用此模型,请确保引用以下论文:
主论文:
@article{10.1145/3729237,
author = {Greco, Salvatore and La Quatra, Moreno and Cagliero, Luca and Cerquitelli, Tania},
title = {Towards AI-Assisted Inclusive Language Writing in Italian Formal Communications},
year = {2025},
publisher = {Association for Computing Machinery},
address = {New York, NY, USA},
issn = {2157-6904},
url = {https://doi.org/10.1145/3729237},
doi = {10.1145/3729237},
note = {Just Accepted},
journal = {ACM Trans. Intell. Syst. Technol.},
month = apr,
}
演示论文:
@InProceedings{PKDD23_inclusively,
author="La Quatra, Moreno
and Greco, Salvatore
and Cagliero, Luca
and Cerquitelli, Tania",
title="Inclusively: An AI-Based Assistant for Inclusive Writing",
booktitle="Machine Learning and Knowledge Discovery in Databases: Applied Data Science and Demo Track",
year="2023",
publisher="Springer Nature Switzerland",
address="Cham",
pages="361--365",
isbn="978-3-031-43430-3",
doi="10.1007/978-3-031-43430-3_31"
}
📄 许可证
本项目采用CC - BY - NC - SA 4.0许可证。