🚀 PopBERT
PopBERT是一個用於檢測德國聯邦議院政治演講中德語民粹主義的模型,它基於deepset/gbert-large模型:https://huggingface.co/deepset/gbert-large 。該模型能夠解決在德語政治演講中識別民粹主義相關特徵的問題,為政治文本分析提供了有力支持。
🚀 快速開始
PopBERT是一個用於檢測德國聯邦議院政治演講中德語民粹主義的模型,基於deepset/gbert-large模型。它是一個多標籤模型,在第18和第19立法期的手動整理句子數據集上進行訓練。除了捕捉民粹主義的基本維度,即“反精英主義”和“以人民為中心”之外,該模型還經過微調,以識別潛在的意識形態傾向是“左翼”還是“右翼”。
✨ 主要特性
- 基於deepset/gbert-large模型,用於檢測德國聯邦議院政治演講中的德語民粹主義。
- 多標籤模型,可識別“反精英主義”“以人民為中心”“左翼”和“右翼”等維度。
- 在手動整理的數據集上訓練,能更精準地捕捉民粹主義特徵。
📦 安裝指南
此文檔未提及具體安裝步驟,若需使用該模型,可參考transformers
庫的安裝方法。
💻 使用示例
基礎用法
import torch
from transformers import AutoModelForSequenceClassification
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("luerhard/PopBERT")
model = AutoModelForSequenceClassification.from_pretrained("luerhard/PopBERT")
text = (
"Das ist Klassenkampf von oben, das ist Klassenkampf im Interesse von "
"Vermögenden und Besitzenden gegen die Mehrheit der Steuerzahlerinnen und "
"Steuerzahler auf dieser Erde."
)
encodings = tokenizer(text, return_tensors="pt")
with torch.inference_mode():
out = model(**encodings)
probs = torch.nn.functional.sigmoid(out.logits)
print(probs.detach().numpy())
運行上述代碼後,輸出結果如下:
[[0.8765146 0.34838045 0.983123 0.02148379]]
高級用法
為了最大化性能,建議針對每個維度使用以下閾值:
[0.415961, 0.295400, 0.429109, 0.302714]
使用這些閾值,模型在測試集上達到以下性能:
維度 |
精確率 |
召回率 |
F1值 |
反精英主義 |
0.81 |
0.88 |
0.84 |
以人民為中心 |
0.70 |
0.73 |
0.71 |
左翼意識形態 |
0.69 |
0.77 |
0.73 |
右翼意識形態 |
0.68 |
0.66 |
0.67 |
--- |
--- |
--- |
--- |
微平均 |
0.75 |
0.80 |
0.77 |
宏平均 |
0.72 |
0.76 |
0.74 |
📚 詳細文檔
預測結果說明
模型輸出一個長度為4的張量。下表將預測概率的位置與其維度相關聯:
索引 |
維度 |
0 |
反精英主義 |
1 |
以人民為中心 |
2 |
左翼意識形態 |
3 |
右翼意識形態 |
📄 許可證
本項目採用MIT許可證。