🚀 トルコ語向け不快表現検出モデル
このモデルは、トルコ語の不快表現を検出するためのものです。dbmdz/bert-base-turkish-128k-uncased モデルを OffensEval 2020 データセットでファインチューニングしています。
🚀 クイックスタート
このモデルを使用するには、必要なライブラリをインストールし、モデルを初期化してから、不快表現の検出を行います。以下に具体的な手順を示します。
✨ 主な機能
- トルコ語の不快表現を検出することができます。
- 前処理ステップを通じて、テキストをクリーニングし、モデルの性能を向上させます。
📦 インストール
必要なライブラリをインストールするには、以下のコマンドを実行します。
pip install git+https://github.com/emres/turkish-deasciifier.git
pip install keras_preprocessing
💻 使用例
基本的な使用法
まず、前処理関数を定義します。
from turkish.deasciifier import Deasciifier
def deasciifier(text):
deasciifier = Deasciifier(text)
return deasciifier.convert_to_turkish()
def remove_circumflex(text):
circumflex_map = {
'â': 'a',
'î': 'i',
'û': 'u',
'ô': 'o',
'Â': 'A',
'Î': 'I',
'Û': 'U',
'Ô': 'O'
}
return ''.join(circumflex_map.get(c, c) for c in text)
def turkish_lower(text):
turkish_map = {
'I': 'ı',
'İ': 'i',
'Ç': 'ç',
'Ş': 'ş',
'Ğ': 'ğ',
'Ü': 'ü',
'Ö': 'ö'
}
return ''.join(turkish_map.get(c, c).lower() for c in text)
次に、テキストをクリーニングする関数を定義します。
import re
def clean_text(text):
text = remove_circumflex(text)
text = turkish_lower(text)
text = deasciifier(text)
text = re.sub(r"@\S*", " ", text)
text = re.sub(r'#\S+', ' ', text)
text = re.sub(r"http\S+|www\S+|https\S+", ' ', text, flags=re.MULTILINE)
text = re.sub(r'[^\w\s]|(:\)|:\(|:D|:P|:o|:O|;\))', ' ', text)
emoji_pattern = re.compile("["
u"\U0001F600-\U0001F64F"
u"\U0001F300-\U0001F5FF"
u"\U0001F680-\U0001F6FF"
u"\U0001F1E0-\U0001F1FF"
u"\U00002702-\U000027B0"
u"\U000024C2-\U0001F251"
"]+", flags=re.UNICODE)
text = emoji_pattern.sub(r' ', text)
text = re.sub(r'\s+', ' ', text).strip()
return text
最後に、モデルを初期化し、不快表現の検出を行います。
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("TURKCELL/bert-offensive-lang-detection-tr")
model = AutoModelForSequenceClassification.from_pretrained("TURKCELL/bert-offensive-lang-detection-tr")
import numpy as np
def is_offensive(sentence):
d = {
0: 'non-offensive',
1: 'offensive'
}
normalize_text = clean_text(sentence)
test_sample = tokenizer([normalize_text], padding=True, truncation=True, max_length=256, return_tensors='pt')
test_sample = {k: v.to(device) for k, v in test_sample.items()}
output = model(**test_sample)
y_pred = np.argmax(output.logits.detach().cpu().numpy(), axis=1)
print(normalize_text, "-->", d[y_pred[0]])
return y_pred[0]
is_offensive("@USER Mekanı cennet olsun, saygılar sayın avukatımız,iyi günler dilerim")
is_offensive("Bir Gün Gelecek Biriniz Bile Kalmayana Kadar Mücadeleye Devam Kökünüzü Kurutacağız !! #bebekkatilipkk")
📚 ドキュメント
モデルの説明
このモデルは、dbmdz/bert-base-turkish-128k-uncased モデルを OffensEval 2020 データセットでファインチューニングしたものです。OffensEval 2020 データセットには、31,756 件の注釈付きツイートが含まれています。
データセットの分布
|
非不快表現(0) |
不快表現 (1) |
訓練データ |
25625 |
6131 |
テストデータ |
2812 |
716 |
前処理ステップ
処理 |
説明 |
アクセント付き文字の変換 |
アクセント付き文字をアクセントなしの文字に変換する |
小文字変換 |
すべてのテキストを小文字に変換する |
@ユーザーメンションの削除 |
テキストから @ユーザー 形式のユーザーメンションを削除する |
ハッシュタグ表現の削除 |
テキストから #ハッシュタグ 形式の表現を削除する |
URLの削除 |
テキストからURLを削除する |
句読点と句読点付き絵文字の削除 |
テキストから句読点と句読点付きの絵文字を削除する |
絵文字の削除 |
テキストから絵文字を削除する |
アスキー文字の変換 |
アスキーテキストをトルコ語文字を含むテキストに変換する |
各前処理の性能が分析されました。数字の削除とハッシュタグの保持には影響がありませんでした。
評価
テストセットでの評価結果は以下の表に示されています。テストセットでは、89% の正解率を達成しています。
クラス |
適合率 |
再現率 |
F1値 |
正解率 |
クラス 0 |
0.92 |
0.94 |
0.93 |
0.89 |
クラス 1 |
0.73 |
0.67 |
0.70 |
|
マクロ |
0.83 |
0.80 |
0.81 |
|
📄 ライセンス
このモデルは MIT ライセンスの下で提供されています。