🚀 ModernBERT-large バイアスタイプ分類器
このモデルは、偏見のある文章や質問に対して、複数のカテゴリに分類することで、自然言語処理タスクにおけるバイアス検出と軽減に役立ちます。
🚀 クイックスタート
このモデルは、ModernBERT-large を GUS-Net paper の一部としてMistal 7Bによって生成された合成データセットでファインチューニングしたものです。モデルは、テキストのバイアスを人種、宗教、性別、年齢などの複数のカテゴリに識別し分類するように設計されており、自然言語処理タスクにおけるバイアス検出と軽減に役立つツールとなっています。

✨ 主な機能
- テキストのバイアスを複数のカテゴリに分類することができます。
- 多ラベル分類問題に対応しています。
- 自然言語処理タスクにおけるバイアス検出と軽減に役立ちます。
📦 インストール
このモデルを使用するには、Hugging Face Transformersライブラリが必要です。以下のコマンドでインストールできます。
pip install transformers
💻 使用例
基本的な使用法
from transformers import pipeline
classifier = pipeline(
"text-classification",
model="cirimus/modernbert-large-bias-type-classifier",
return_all_scores=True
)
text = "Tall people are so clumsy."
predictions = classifier(text)
for pred in sorted(predictions[0], key=lambda x: x['score'], reverse=True)[:5]:
print(f"{pred['label']}: {pred['score']:.3f}")
📚 ドキュメント
モデルの詳細
プロパティ |
詳細 |
ベースモデル |
ModernBERT-large |
ファインチューニングデータセット |
合成バイアスコーパス |
ラベル数 |
11 |
問題の種類 |
多ラベル分類 |
言語 |
英語 |
ライセンス |
MIT |
ファインチューニングフレームワーク |
Hugging Face Transformers |
モデルの作成方法
このモデルは、以下のハイパーパラメータを使用してバイアス検出のためにファインチューニングされました。
- 学習率:
3e-5
- バッチサイズ: 16
- 重み減衰:
0.01
- ウォームアップステップ: 500
- オプティマイザ: AdamW
- 評価指標: 精度、再現率、F1スコア(加重平均)、正解率
データセット
合成データセットは、GUS-Net論文の一部としてMistal 7Bによって生成された偏見のある文章と質問で構成されています。これは11のバイアスカテゴリをカバーしています。
- 人種
- 宗教
- 性別
- 年齢
- 国籍
- 性的指向
- 社会経済的地位
- 教育
- 障害
- 政治
- 身体的特徴
評価結果
モデルは合成データセットのテスト分割で評価されました。閾値 0.5
を使用した全体的な指標は以下の通りです。
マクロ平均:
指標 |
値 |
正解率 |
0.983 |
精度 |
0.930 |
再現率 |
0.914 |
F1 |
0.921 |
MCC |
0.912 |
ラベルごとの結果:
ラベル |
正解率 |
精度 |
再現率 |
F1 |
MCC |
サポート |
閾値 |
人種 |
0.975 |
0.871 |
0.889 |
0.880 |
0.866 |
388 |
0.5 |
宗教 |
0.994 |
0.962 |
0.970 |
0.966 |
0.962 |
335 |
0.5 |
性別 |
0.976 |
0.930 |
0.925 |
0.927 |
0.913 |
615 |
0.5 |
年齢 |
0.990 |
0.964 |
0.931 |
0.947 |
0.941 |
375 |
0.5 |
国籍 |
0.972 |
0.924 |
0.881 |
0.902 |
0.886 |
554 |
0.5 |
性的指向 |
0.993 |
0.960 |
0.957 |
0.958 |
0.955 |
301 |
0.5 |
社会経済的地位 |
0.964 |
0.909 |
0.818 |
0.861 |
0.842 |
516 |
0.5 |
教育 |
0.982 |
0.873 |
0.933 |
0.902 |
0.893 |
330 |
0.5 |
障害 |
0.986 |
0.923 |
0.887 |
0.905 |
0.897 |
283 |
0.5 |
政治 |
0.988 |
0.958 |
0.938 |
0.948 |
0.941 |
438 |
0.5 |
身体的特徴 |
0.993 |
0.961 |
0.920 |
0.940 |
0.936 |
238 |
0.5 |
想定される用途
このモデルは、11のカテゴリにわたるテキストのバイアスを検出し分類するように設計されています。以下のようなアプリケーションで使用できます。
- コンテンツモデレーション
- 研究におけるバイアス分析
- 倫理的なAI開発
制限事項とバイアス
- 合成データの性質: データセットは合成テキストで構成されており、現実世界のバイアスを完全に表現しているとは限りません。
- カテゴリの重複: 特定のバイアスが重複することがあり、正確な分類に課題が生じる可能性があります。
- ドメイン固有の汎化性: モデルは合成データセットの範囲外のドメインに対してはうまく汎化しない可能性があります。
環境への影響
📄 ライセンス
このモデルは MIT ライセンスの下で提供されています。
🔧 引用
このモデルを使用する場合は、以下のように引用してください。
@inproceedings{JunquedeFortuny2025c,
title = {Bias Detection with ModernBERT-Large},
author = {Enric Junqué de Fortuny},
year = {2025},
howpublished = {\url{https://huggingface.co/cirimus/modernbert-large-bias-type-classifier}},
}