模型概述
模型特點
模型能力
使用案例
🚀 ScandiNLI - 斯堪的納維亞語言自然語言推理模型
ScandiNLI 是一個針對丹麥語、挪威書面語和瑞典語進行自然語言推理的模型。它基於 NbAiLab/nb-bert-large 進行微調,能夠有效處理斯堪的納維亞語言的自然語言推理任務。
我們發佈了三種不同規模的斯堪的納維亞自然語言推理(NLI)模型:
- alexandrainst/scandi-nli-large-v2
- alexandrainst/scandi-nli-large(本模型)
- alexandrainst/scandi-nli-base
- alexandrainst/scandi-nli-small
可以在 這個Hugging Face Space 中查看 large-v2 模型的演示。各模型的性能和大小信息可在下面的“性能”部分查看。
🚀 快速開始
你可以在腳本中按如下方式使用此模型:
>>> from transformers import pipeline
>>> classifier = pipeline(
... "zero-shot-classification",
... model="alexandrainst/scandi-nli-large",
... )
>>> classifier(
... "Mexicansk bokser advarer Messi - 'Du skal bede til gud, om at jeg ikke finder dig'",
... candidate_labels=['sundhed', 'politik', 'sport', 'religion'],
... hypothesis_template="Dette eksempel handler om {}",
... )
{'sequence': "Mexicansk bokser advarer Messi - 'Du skal bede til gud, om at jeg ikke finder dig'",
'labels': ['sport', 'religion', 'politik', 'sundhed'],
'scores': [0.6134647727012634,
0.30309760570526123,
0.05021871626377106,
0.03321893885731697]}
✨ 主要特性
- 多語言支持:支持丹麥語、挪威書面語和瑞典語三種斯堪的納維亞語言。
- 多種規模可選:提供大、中、小三種不同規模的模型,可根據需求選擇。
- 零樣本分類:適用於零樣本分類任務,可直接對未見類別進行分類。
📚 詳細文檔
性能評估
我們對模型在斯堪的納維亞語言整體性能以及丹麥語、瑞典語和挪威書面語的特定語言性能進行了評估。在所有情況下,我們都報告了馬修斯相關係數(MCC)、宏平均 F1 分數以及準確率。
斯堪的納維亞語言整體評估
斯堪的納維亞語言的分數是丹麥語、瑞典語和挪威語分數的平均值,具體分數如下:
模型 | MCC | Macro-F1 | 準確率 | 參數數量 |
---|---|---|---|---|
alexandrainst/scandi-nli-large-v2 |
75.42% | 75.41% | 84.95% | 3.54 億 |
alexandrainst/scandi-nli-large (本模型) |
73.70% | 74.44% | 83.91% | 3.54 億 |
MoritzLaurer/mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 |
69.01% | 71.99% | 80.66% | 2.79 億 |
alexandrainst/scandi-nli-base |
67.42% | 71.54% | 80.09% | 1.78 億 |
joeddav/xlm-roberta-large-xnli |
64.17% | 70.80% | 77.29% | 5.6 億 |
MoritzLaurer/mDeBERTa-v3-base-mnli-xnli |
63.94% | 70.41% | 77.23% | 2.79 億 |
NbAiLab/nb-bert-base-mnli |
61.71% | 68.36% | 76.08% | 1.78 億 |
alexandrainst/scandi-nli-small |
56.02% | 65.30% | 73.56% | 2200 萬 |
丹麥語評估
我們使用 DanFEVER 數據集 的測試集來評估模型的丹麥語性能。測試集使用 這個 gist 生成。
模型 | MCC | Macro-F1 | 準確率 | 參數數量 |
---|---|---|---|---|
alexandrainst/scandi-nli-large-v2 |
75.65% | 59.23% | 87.89% | 3.54 億 |
alexandrainst/scandi-nli-large (本模型) |
73.80% | 58.41% | 86.98% | 3.54 億 |
MoritzLaurer/mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 |
68.37% | 57.10% | 83.25% | 2.79 億 |
alexandrainst/scandi-nli-base |
62.44% | 55.00% | 80.42% | 1.78 億 |
NbAiLab/nb-bert-base-mnli |
56.92% | 53.25% | 76.39% | 1.78 億 |
MoritzLaurer/mDeBERTa-v3-base-mnli-xnli |
52.79% | 52.00% | 72.35% | 2.79 億 |
joeddav/xlm-roberta-large-xnli |
49.18% | 50.31% | 69.73% | 5.6 億 |
alexandrainst/scandi-nli-small |
47.28% | 48.88% | 73.46% | 2200 萬 |
瑞典語評估
我們使用 MultiNLI 數據集機器翻譯版本的測試集來評估模型的瑞典語性能。我們承認不在黃金標準數據集上進行評估並不理想,但遺憾的是我們不知道有任何瑞典語的 NLI 數據集。
模型 | MCC | Macro-F1 | 準確率 | 參數數量 |
---|---|---|---|---|
alexandrainst/scandi-nli-large-v2 |
79.02% | 85.99% | 85.99% | 3.54 億 |
alexandrainst/scandi-nli-large (本模型) |
76.69% | 84.47% | 84.38% | 3.54 億 |
joeddav/xlm-roberta-large-xnli |
75.35% | 83.42% | 83.55% | 5.6 億 |
MoritzLaurer/mDeBERTa-v3-base-mnli-xnli |
73.84% | 82.46% | 82.58% | 2.79 億 |
MoritzLaurer/mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 |
73.32% | 82.15% | 82.08% | 2.79 億 |
alexandrainst/scandi-nli-base |
72.29% | 81.37% | 81.51% | 1.78 億 |
NbAiLab/nb-bert-base-mnli |
64.69% | 76.40% | 76.47% | 1.78 億 |
alexandrainst/scandi-nli-small |
62.35% | 74.79% | 74.93% | 2200 萬 |
挪威語評估
我們使用 MultiNLI 數據集機器翻譯版本的測試集來評估模型的挪威語性能。同樣,我們承認不在黃金標準數據集上進行評估並不理想,但遺憾的是我們不知道有任何挪威語的 NLI 數據集。
模型 | MCC | Macro-F1 | 準確率 | 參數數量 |
---|---|---|---|---|
alexandrainst/scandi-nli-large-v2 |
71.59% | 81.00% | 80.96% | 3.54 億 |
alexandrainst/scandi-nli-large (本模型) |
70.61% | 80.43% | 80.36% | 3.54 億 |
joeddav/xlm-roberta-large-xnli |
67.99% | 78.68% | 78.60% | 5.6 億 |
alexandrainst/scandi-nli-base |
67.53% | 78.24% | 78.33% | 1.78 億 |
MoritzLaurer/mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 |
65.33% | 76.73% | 76.65% | 2.79 億 |
MoritzLaurer/mDeBERTa-v3-base-mnli-xnli |
65.18% | 76.76% | 76.77% | 2.79 億 |
NbAiLab/nb-bert-base-mnli |
63.51% | 75.42% | 75.39% | 1.78 億 |
alexandrainst/scandi-nli-small |
58.42% | 72.22% | 72.30% | 2200 萬 |
訓練過程
該模型在由 DanFEVER 以及 MultiNLI 和 CommitmentBank 的三種語言機器翻譯版本,以及 FEVER 和 Adversarial NLI 的瑞典語機器翻譯版本組成的數據集上進行了微調。
DanFEVER 的訓練集使用 這個 gist 生成。在訓練過程中,三種語言的樣本被平等採樣,並在 DanFEVER 的驗證集以及瑞典語和挪威書面語的 MultiNLI 機器翻譯版本的驗證集上進行驗證,驗證集同樣平等採樣。
你可以查看 Github 倉庫 獲取訓練 ScandiNLI 模型的代碼,完整的訓練日誌可以在 這個 Weights and Biases 報告 中找到。
訓練超參數
訓練過程中使用了以下超參數:
- 學習率:2e-05
- 訓練批次大小:2
- 評估批次大小:2
- 隨機種子:4242
- 梯度累積步數:16
- 總訓練批次大小:32
- 優化器:Adam(β1 = 0.9,β2 = 0.999,ε = 1e-08)
- 學習率調度器類型:線性
- 學習率調度器熱身步數:500
- 最大步數:50,000
🔧 技術細節
- 基礎模型:基於 NbAiLab/nb-bert-large 進行微調。
- 數據集:使用了多個數據集,包括 DanFEVER、MultiNLI、CommitmentBank、FEVER 和 Adversarial NLI 等數據集的機器翻譯版本。
- 訓練策略:三種語言在訓練和驗證時平等採樣,確保模型對三種語言的性能均衡。
📄 許可證
本模型採用 Apache-2.0 許可證。








