🚀 roberta-base-frenk-hate
这是一个基于文本分类的模型,它以roberta-base
为基础,并在FRENK数据集上进行了微调。该数据集包含针对LGBT群体和移民的仇恨言论。微调仅使用了数据集中的英文子集,并且对数据集进行了重新标注,以进行二元分类(冒犯性或可接受)。
🚀 快速开始
本模型基于roberta-base
,在特定数据集上微调后可用于文本分类任务,能判断文本是否具有冒犯性。
✨ 主要特性
- 基于
roberta-base
模型,在特定的仇恨言论数据集上进行微调。
- 仅使用英文子集数据进行微调,并重新标注为二元分类任务。
📦 安装指南
文档未提供安装步骤,故跳过此章节。
💻 使用示例
基础用法
from simpletransformers.classification import ClassificationModel
model_args = {
"num_train_epochs": 6,
"learning_rate": 3e-6,
"train_batch_size": 69}
model = ClassificationModel(
"roberta", "5roop/roberta-base-frenk-hate", use_cuda=True,
args=model_args
)
predictions, logit_output = model.predict(["Build the wall",
"Build the wall of trust"]
)
predictions
📚 详细文档
微调超参数
使用simpletransformers
进行微调。事先进行了简要的超参数优化,推测的最优超参数如下:
model_args = {
"num_train_epochs": 6,
"learning_rate": 3e-6,
"train_batch_size": 69}
性能表现
为了进行比较,使用相同的管道对另外两个Transformer模型和fasttext
进行了运行。记录了6次微调会话中每个模型的准确率和宏F1分数,并进行了事后分析。
模型 |
平均准确率 |
平均宏F1分数 |
roberta-base-frenk-hate |
0.7915 |
0.7785 |
xlm-roberta-large |
0.7904 |
0.77876 |
xlm-roberta-base |
0.7577 |
0.7402 |
fasttext |
0.725 |
0.707 |
根据记录的准确率和宏F1分数,还计算了p值:
与xlm-roberta-base
的比较:
测试方法 |
准确率p值 |
宏F1分数p值 |
Wilcoxon |
0.00781 |
0.00781 |
Mann Whithney U-test |
0.00108 |
0.00108 |
Student t-test |
1.35e - 08 |
1.05e - 07 |
与xlm-roberta-large
的比较结果不明确。roberta-base
的平均准确率为0.7915,而xlm-roberta-large
的平均准确率为0.7904。如果比较宏F1分数,roberta-base
实际上比xlm-roberta-large
的平均值低:分别为0.77852和0.77876。在假设roberta-base
具有更好指标的前提下进行了相同的统计测试,结果如下:
测试方法 |
准确率p值 |
宏F1分数p值 |
Wilcoxon |
0.188 |
0.406 |
Mann Whithey |
0.375 |
0.649 |
Student t-test |
0.681 |
0.934 |
在相反的假设下(即xlm-roberta-large
具有更好的统计指标),这种情况下宏F1分数的Wilcoxon p值达到0.656,Mann - Whithey p值为0.399,当然Student p值保持不变。因此得出结论,这两个模型的性能在统计上没有显著差异。
🔧 技术细节
文档中关于技术细节的描述主要围绕微调超参数和性能比较,已在详细文档中体现。
📄 许可证
本项目采用CC BY-SA 4.0许可证。
📖 引用
如果您使用该模型,请引用以下论文,该论文是原始模型的基础:
@article{DBLP:journals/corr/abs-1907-11692,
author = {Yinhan Liu and
Myle Ott and
Naman Goyal and
Jingfei Du and
Mandar Joshi and
Danqi Chen and
Omer Levy and
Mike Lewis and
Luke Zettlemoyer and
Veselin Stoyanov},
title = {RoBERTa: {A} Robustly Optimized {BERT} Pretraining Approach},
journal = {CoRR},
volume = {abs/1907.11692},
year = {2019},
url = {http://arxiv.org/abs/1907.11692},
archivePrefix = {arXiv},
eprint = {1907.11692},
timestamp = {Thu, 01 Aug 2019 08:59:33 +0200},
biburl = {https://dblp.org/rec/journals/corr/abs-1907-11692.bib},
bibsource = {dblp computer science bibliography, https://dblp.org}
}
以及用于微调的数据集:
@misc{ljubešić2019frenk,
title={The FRENK Datasets of Socially Unacceptable Discourse in Slovene and English},
author={Nikola Ljubešić and Darja Fišer and Tomaž Erjavec},
year={2019},
eprint={1906.02045},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/1906.02045}
}