模型简介
模型特点
模型能力
使用案例
🚀 ScandiNLI - 斯堪的纳维亚语言自然语言推理模型
ScandiNLI 是一个针对丹麦语、挪威书面语和瑞典语进行自然语言推理的模型。它基于 NbAiLab/nb-bert-large 进行微调,能够有效处理斯堪的纳维亚语言的自然语言推理任务。
我们发布了三种不同规模的斯堪的纳维亚自然语言推理(NLI)模型:
- alexandrainst/scandi-nli-large-v2
- alexandrainst/scandi-nli-large(本模型)
- alexandrainst/scandi-nli-base
- alexandrainst/scandi-nli-small
可以在 这个Hugging Face Space 中查看 large-v2 模型的演示。各模型的性能和大小信息可在下面的“性能”部分查看。
🚀 快速开始
你可以在脚本中按如下方式使用此模型:
>>> from transformers import pipeline
>>> classifier = pipeline(
... "zero-shot-classification",
... model="alexandrainst/scandi-nli-large",
... )
>>> classifier(
... "Mexicansk bokser advarer Messi - 'Du skal bede til gud, om at jeg ikke finder dig'",
... candidate_labels=['sundhed', 'politik', 'sport', 'religion'],
... hypothesis_template="Dette eksempel handler om {}",
... )
{'sequence': "Mexicansk bokser advarer Messi - 'Du skal bede til gud, om at jeg ikke finder dig'",
'labels': ['sport', 'religion', 'politik', 'sundhed'],
'scores': [0.6134647727012634,
0.30309760570526123,
0.05021871626377106,
0.03321893885731697]}
✨ 主要特性
- 多语言支持:支持丹麦语、挪威书面语和瑞典语三种斯堪的纳维亚语言。
- 多种规模可选:提供大、中、小三种不同规模的模型,可根据需求选择。
- 零样本分类:适用于零样本分类任务,可直接对未见类别进行分类。
📚 详细文档
性能评估
我们对模型在斯堪的纳维亚语言整体性能以及丹麦语、瑞典语和挪威书面语的特定语言性能进行了评估。在所有情况下,我们都报告了马修斯相关系数(MCC)、宏平均 F1 分数以及准确率。
斯堪的纳维亚语言整体评估
斯堪的纳维亚语言的分数是丹麦语、瑞典语和挪威语分数的平均值,具体分数如下:
模型 | MCC | Macro-F1 | 准确率 | 参数数量 |
---|---|---|---|---|
alexandrainst/scandi-nli-large-v2 |
75.42% | 75.41% | 84.95% | 3.54 亿 |
alexandrainst/scandi-nli-large (本模型) |
73.70% | 74.44% | 83.91% | 3.54 亿 |
MoritzLaurer/mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 |
69.01% | 71.99% | 80.66% | 2.79 亿 |
alexandrainst/scandi-nli-base |
67.42% | 71.54% | 80.09% | 1.78 亿 |
joeddav/xlm-roberta-large-xnli |
64.17% | 70.80% | 77.29% | 5.6 亿 |
MoritzLaurer/mDeBERTa-v3-base-mnli-xnli |
63.94% | 70.41% | 77.23% | 2.79 亿 |
NbAiLab/nb-bert-base-mnli |
61.71% | 68.36% | 76.08% | 1.78 亿 |
alexandrainst/scandi-nli-small |
56.02% | 65.30% | 73.56% | 2200 万 |
丹麦语评估
我们使用 DanFEVER 数据集 的测试集来评估模型的丹麦语性能。测试集使用 这个 gist 生成。
模型 | MCC | Macro-F1 | 准确率 | 参数数量 |
---|---|---|---|---|
alexandrainst/scandi-nli-large-v2 |
75.65% | 59.23% | 87.89% | 3.54 亿 |
alexandrainst/scandi-nli-large (本模型) |
73.80% | 58.41% | 86.98% | 3.54 亿 |
MoritzLaurer/mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 |
68.37% | 57.10% | 83.25% | 2.79 亿 |
alexandrainst/scandi-nli-base |
62.44% | 55.00% | 80.42% | 1.78 亿 |
NbAiLab/nb-bert-base-mnli |
56.92% | 53.25% | 76.39% | 1.78 亿 |
MoritzLaurer/mDeBERTa-v3-base-mnli-xnli |
52.79% | 52.00% | 72.35% | 2.79 亿 |
joeddav/xlm-roberta-large-xnli |
49.18% | 50.31% | 69.73% | 5.6 亿 |
alexandrainst/scandi-nli-small |
47.28% | 48.88% | 73.46% | 2200 万 |
瑞典语评估
我们使用 MultiNLI 数据集机器翻译版本的测试集来评估模型的瑞典语性能。我们承认不在黄金标准数据集上进行评估并不理想,但遗憾的是我们不知道有任何瑞典语的 NLI 数据集。
模型 | MCC | Macro-F1 | 准确率 | 参数数量 |
---|---|---|---|---|
alexandrainst/scandi-nli-large-v2 |
79.02% | 85.99% | 85.99% | 3.54 亿 |
alexandrainst/scandi-nli-large (本模型) |
76.69% | 84.47% | 84.38% | 3.54 亿 |
joeddav/xlm-roberta-large-xnli |
75.35% | 83.42% | 83.55% | 5.6 亿 |
MoritzLaurer/mDeBERTa-v3-base-mnli-xnli |
73.84% | 82.46% | 82.58% | 2.79 亿 |
MoritzLaurer/mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 |
73.32% | 82.15% | 82.08% | 2.79 亿 |
alexandrainst/scandi-nli-base |
72.29% | 81.37% | 81.51% | 1.78 亿 |
NbAiLab/nb-bert-base-mnli |
64.69% | 76.40% | 76.47% | 1.78 亿 |
alexandrainst/scandi-nli-small |
62.35% | 74.79% | 74.93% | 2200 万 |
挪威语评估
我们使用 MultiNLI 数据集机器翻译版本的测试集来评估模型的挪威语性能。同样,我们承认不在黄金标准数据集上进行评估并不理想,但遗憾的是我们不知道有任何挪威语的 NLI 数据集。
模型 | MCC | Macro-F1 | 准确率 | 参数数量 |
---|---|---|---|---|
alexandrainst/scandi-nli-large-v2 |
71.59% | 81.00% | 80.96% | 3.54 亿 |
alexandrainst/scandi-nli-large (本模型) |
70.61% | 80.43% | 80.36% | 3.54 亿 |
joeddav/xlm-roberta-large-xnli |
67.99% | 78.68% | 78.60% | 5.6 亿 |
alexandrainst/scandi-nli-base |
67.53% | 78.24% | 78.33% | 1.78 亿 |
MoritzLaurer/mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 |
65.33% | 76.73% | 76.65% | 2.79 亿 |
MoritzLaurer/mDeBERTa-v3-base-mnli-xnli |
65.18% | 76.76% | 76.77% | 2.79 亿 |
NbAiLab/nb-bert-base-mnli |
63.51% | 75.42% | 75.39% | 1.78 亿 |
alexandrainst/scandi-nli-small |
58.42% | 72.22% | 72.30% | 2200 万 |
训练过程
该模型在由 DanFEVER 以及 MultiNLI 和 CommitmentBank 的三种语言机器翻译版本,以及 FEVER 和 Adversarial NLI 的瑞典语机器翻译版本组成的数据集上进行了微调。
DanFEVER 的训练集使用 这个 gist 生成。在训练过程中,三种语言的样本被平等采样,并在 DanFEVER 的验证集以及瑞典语和挪威书面语的 MultiNLI 机器翻译版本的验证集上进行验证,验证集同样平等采样。
你可以查看 Github 仓库 获取训练 ScandiNLI 模型的代码,完整的训练日志可以在 这个 Weights and Biases 报告 中找到。
训练超参数
训练过程中使用了以下超参数:
- 学习率:2e-05
- 训练批次大小:2
- 评估批次大小:2
- 随机种子:4242
- 梯度累积步数:16
- 总训练批次大小:32
- 优化器:Adam(β1 = 0.9,β2 = 0.999,ε = 1e-08)
- 学习率调度器类型:线性
- 学习率调度器热身步数:500
- 最大步数:50,000
🔧 技术细节
- 基础模型:基于 NbAiLab/nb-bert-large 进行微调。
- 数据集:使用了多个数据集,包括 DanFEVER、MultiNLI、CommitmentBank、FEVER 和 Adversarial NLI 等数据集的机器翻译版本。
- 训练策略:三种语言在训练和验证时平等采样,确保模型对三种语言的性能均衡。
📄 许可证
本模型采用 Apache-2.0 许可证。








