🚀 roberta-base-frenk-hate
このモデルは、roberta-base
をベースに、LGBTや移民に対する嫌がらせ発言を含む FRENKデータセット でファインチューニングされたテキスト分類モデルです。ファインチューニングにはデータの英語部分のみが使用され、データセットは二値分類(攻撃的または許容可能)のために再ラベル付けされています。
🚀 クイックスタート
このモデルは、特定のデータセットでファインチューニングされたテキスト分類モデルです。以下のセクションでは、ファインチューニングのハイパーパラメータ、パフォーマンス、使用例などについて説明します。
✨ 主な機能
- 特定のデータセットでファインチューニングされたテキスト分類モデルです。
- 二値分類(攻撃的または許容可能)に最適化されています。
🔧 技術詳細
ファインチューニングのハイパーパラメータ
ファインチューニングは simpletransformers
を使用して行われました。事前に簡単なハイパーパラメータ最適化が行われ、推定された最適なハイパーパラメータは以下の通りです。
model_args = {
"num_train_epochs": 6,
"learning_rate": 3e-6,
"train_batch_size": 69}
パフォーマンス
同じパイプラインを他の2つのトランスフォーマーモデルと fasttext
で実行し、比較のために精度とマクロF1スコアを記録しました。6回のファインチューニングセッションのそれぞれについて記録され、事後に分析されました。
モデル |
平均精度 |
平均マクロF1 |
roberta-base-frenk-hate |
0.7915 |
0.7785 |
xlm-roberta-large |
0.7904 |
0.77876 |
xlm-roberta-base |
0.7577 |
0.7402 |
fasttext |
0.725 |
0.707 |
記録された精度とマクロF1スコアから、p値も計算されました。
xlm-roberta-base
との比較:
テスト |
精度のp値 |
マクロF1のp値 |
Wilcoxon |
0.00781 |
0.00781 |
Mann Whithney U-test |
0.00108 |
0.00108 |
Student t-test |
1.35e-08 |
1.05e-07 |
xlm-roberta-large
との比較では、結論的な結果は得られませんでした。roberta-base
の平均精度は0.7915で、xlm-roberta-large
の平均精度は0.7904です。マクロF1スコアを比較すると、roberta-base
の方が xlm-roberta-large
よりも平均値が低くなります。それぞれ0.77852対0.77876です。同じ統計テストが、roberta-base
の方が指標が高いという前提で行われ、結果は以下の通りです。
テスト |
精度のp値 |
マクロF1のp値 |
Wilcoxon |
0.188 |
0.406 |
Mann Whithey |
0.375 |
0.649 |
Student t-test |
0.681 |
0.934 |
前提を逆にすると(つまり、xlm-roberta-large
の方が統計値が高いという前提)、この場合のマクロF1スコアのWilcoxonのp値は0.656、Mann-Whitheyのp値は0.399になり、もちろんStudentのp値は同じままです。したがって、2つのモデルのパフォーマンスには統計的に有意な差がないと結論付けられました。
💻 使用例
基本的な使用法
from simpletransformers.classification import ClassificationModel
model_args = {
"num_train_epochs": 6,
"learning_rate": 3e-6,
"train_batch_size": 69}
model = ClassificationModel(
"roberta", "5roop/roberta-base-frenk-hate", use_cuda=True,
args=model_args
)
predictions, logit_output = model.predict(["Build the wall",
"Build the wall of trust"]
)
predictions
📄 ライセンス
このプロジェクトは、CC BY-SA 4.0ライセンスの下で公開されています。
📚 詳細ドキュメント
引用
このモデルを使用する場合は、元のモデルが基づいている以下の論文と、ファインチューニングに使用されたデータセットを引用してください。
@article{DBLP:journals/corr/abs-1907-11692,
author = {Yinhan Liu and
Myle Ott and
Naman Goyal and
Jingfei Du and
Mandar Joshi and
Danqi Chen and
Omer Levy and
Mike Lewis and
Luke Zettlemoyer and
Veselin Stoyanov},
title = {RoBERTa: {A} Robustly Optimized {BERT} Pretraining Approach},
journal = {CoRR},
volume = {abs/1907.11692},
year = {2019},
url = {http://arxiv.org/abs/1907.11692},
archivePrefix = {arXiv},
eprint = {1907.11692},
timestamp = {Thu, 01 Aug 2019 08:59:33 +0200},
biburl = {https://dblp.org/rec/journals/corr/abs-1907-11692.bib},
bibsource = {dblp computer science bibliography, https://dblp.org}
}
@misc{ljubešić2019frenk,
title={The FRENK Datasets of Socially Unacceptable Discourse in Slovene and English},
author={Nikola Ljubešić and Darja Fišer and Tomaž Erjavec},
year={2019},
eprint={1906.02045},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/1906.02045}
}