Scandi Nli Small
基於jonfd/electra-small-nordic微調的斯堪的納維亞語言NLI模型,支持丹麥語、挪威語和瑞典語
下載量 28
發布時間 : 11/28/2022
模型概述
該模型用於丹麥語、書面挪威語和瑞典語的自然語言推理任務,特別適合零樣本分類場景。
模型特點
多語言支持
專門針對斯堪的納維亞語言(丹麥語、挪威語和瑞典語)優化
輕量級模型
僅22M參數,適合資源受限環境
零樣本分類能力
無需特定領域訓練即可進行分類任務
模型能力
零樣本文本分類
多語言自然語言推理
跨語言遷移學習
使用案例
新聞分類
體育新聞分類
自動識別體育相關新聞內容
在體育類別上表現良好
政治新聞分類
識別政治相關新聞內容
在政治類別上表現良好
內容審核
多語言內容分類
對斯堪的納維亞語言內容進行分類審核
🚀 ScandiNLI - 斯堪的納維亞語言自然語言推理模型
ScandiNLI 是一款專為丹麥語、挪威書面語和瑞典語設計的自然語言推理模型。它基於預訓練模型進行微調,為斯堪的納維亞地區的自然語言處理任務提供了強大的支持。
🚀 快速開始
你可以在腳本中按如下方式使用該模型:
>>> from transformers import pipeline
>>> classifier = pipeline(
... "zero-shot-classification",
... model="alexandrainst/scandi-nli-small",
... )
>>> classifier(
... "Mexicansk bokser advarer Messi - 'Du skal bede til gud, om at jeg ikke finder dig'",
... candidate_labels=['sundhed', 'politik', 'sport', 'religion'],
... hypothesis_template="Dette eksempel handler om {}",
... )
{'sequence': "Mexicansk bokser advarer Messi - 'Du skal bede til gud, om at jeg ikke finder dig'",
'labels': ['religion', 'sport', 'politik', 'sundhed'],
'scores': [0.4504755437374115,
0.20737220346927643,
0.1976872682571411,
0.14446501433849335]}
✨ 主要特性
- 多語言支持:支持丹麥語、挪威書面語和瑞典語三種斯堪的納維亞語言。
- 零樣本分類:可用於零樣本分類任務,無需大量標註數據。
- 多種模型選擇:提供不同規模的模型,可根據需求選擇。
📚 詳細文檔
性能評估
我們分別對丹麥語、瑞典語和挪威書面語進行了模型評估,報告了馬修斯相關係數(MCC)、宏平均 F1 分數和準確率。
斯堪的納維亞地區綜合評估
斯堪的納維亞地區的分數是丹麥語、瑞典語和挪威語分數的平均值。
模型 | MCC | 宏平均 F1 | 準確率 | 參數數量 |
---|---|---|---|---|
alexandrainst/scandi-nli-large-v2 |
75.42% | 75.41% | 84.95% | 3.54 億 |
alexandrainst/scandi-nli-large |
73.70% | 74.44% | 83.91% | 3.54 億 |
MoritzLaurer/mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 |
69.01% | 71.99% | 80.66% | 2.79 億 |
alexandrainst/scandi-nli-base |
67.42% | 71.54% | 80.09% | 1.78 億 |
joeddav/xlm-roberta-large-xnli |
64.17% | 70.80% | 77.29% | 5.6 億 |
MoritzLaurer/mDeBERTa-v3-base-mnli-xnli |
63.94% | 70.41% | 77.23% | 2.79 億 |
NbAiLab/nb-bert-base-mnli |
61.71% | 68.36% | 76.08% | 1.78 億 |
alexandrainst/scandi-nli-small (本模型) |
56.02% | 65.30% | 73.56% | 2200 萬 |
丹麥語評估
我們使用 DanFEVER 數據集 的測試集來評估模型的丹麥語性能。
模型 | MCC | 宏平均 F1 | 準確率 | 參數數量 |
---|---|---|---|---|
alexandrainst/scandi-nli-large-v2 |
75.65% | 59.23% | 87.89% | 3.54 億 |
alexandrainst/scandi-nli-large |
73.80% | 58.41% | 86.98% | 3.54 億 |
MoritzLaurer/mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 |
68.37% | 57.10% | 83.25% | 2.79 億 |
alexandrainst/scandi-nli-base |
62.44% | 55.00% | 80.42% | 1.78 億 |
NbAiLab/nb-bert-base-mnli |
56.92% | 53.25% | 76.39% | 1.78 億 |
MoritzLaurer/mDeBERTa-v3-base-mnli-xnli |
52.79% | 52.00% | 72.35% | 2.79 億 |
joeddav/xlm-roberta-large-xnli |
49.18% | 50.31% | 69.73% | 5.6 億 |
alexandrainst/scandi-nli-small (本模型) |
47.28% | 48.88% | 73.46% | 2200 萬 |
瑞典語評估
我們使用 MultiNLI 數據集機器翻譯版本的測試集來評估模型的瑞典語性能。
模型 | MCC | 宏平均 F1 | 準確率 | 參數數量 |
---|---|---|---|---|
alexandrainst/scandi-nli-large-v2 |
79.02% | 85.99% | 85.99% | 3.54 億 |
alexandrainst/scandi-nli-large |
76.69% | 84.47% | 84.38% | 3.54 億 |
joeddav/xlm-roberta-large-xnli |
75.35% | 83.42% | 83.55% | 5.6 億 |
MoritzLaurer/mDeBERTa-v3-base-mnli-xnli |
73.84% | 82.46% | 82.58% | 2.79 億 |
MoritzLaurer/mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 |
73.32% | 82.15% | 82.08% | 2.79 億 |
alexandrainst/scandi-nli-base |
72.29% | 81.37% | 81.51% | 1.78 億 |
NbAiLab/nb-bert-base-mnli |
64.69% | 76.40% | 76.47% | 1.78 億 |
alexandrainst/scandi-nli-small (本模型) |
62.35% | 74.79% | 74.93% | 2200 萬 |
挪威語評估
我們使用 MultiNLI 數據集機器翻譯版本的測試集來評估模型的挪威語性能。
模型 | MCC | 宏平均 F1 | 準確率 | 參數數量 |
---|---|---|---|---|
alexandrainst/scandi-nli-large-v2 |
71.59% | 81.00% | 80.96% | 3.54 億 |
alexandrainst/scandi-nli-large |
70.61% | 80.43% | 80.36% | 3.54 億 |
joeddav/xlm-roberta-large-xnli |
67.99% | 78.68% | 78.60% | 5.6 億 |
alexandrainst/scandi-nli-base |
67.53% | 78.24% | 78.33% | 1.78 億 |
MoritzLaurer/mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 |
65.33% | 76.73% | 76.65% | 2.79 億 |
MoritzLaurer/mDeBERTa-v3-base-mnli-xnli |
65.18% | 76.76% | 76.77% | 2.79 億 |
NbAiLab/nb-bert-base-mnli |
63.51% | 75.42% | 75.39% | 1.78 億 |
alexandrainst/scandi-nli-small (本模型) |
58.42% | 72.22% | 72.30% | 2200 萬 |
訓練過程
該模型在由 DanFEVER、MultiNLI 和 CommitmentBank 的機器翻譯版本組成的數據集上進行了微調。同時,還使用了 FEVER 和 Adversarial NLI 的瑞典語機器翻譯版本。
DanFEVER 的訓練集使用 此代碼片段 生成。訓練過程中,三種語言的樣本被均勻採樣,並在 DanFEVER 的驗證集以及瑞典語和挪威書面語的 MultiNLI 機器翻譯版本的驗證集上進行驗證。
你可以查看 Github 倉庫 以獲取訓練 ScandiNLI 模型的代碼,完整的訓練日誌可在 Weights and Biases 報告 中找到。
訓練超參數
訓練過程中使用了以下超參數:
- 學習率:2e-05
- 訓練批次大小:32
- 評估批次大小:32
- 隨機種子:4242
- 梯度累積步數:1
- 總訓練批次大小:32
- 優化器:Adam(β1=0.9,β2=0.999,ε=1e-08)
- 學習率調度器類型:線性
- 學習率調度器熱身步數:500
- 最大步數:50,000
📄 許可證
本模型採用 Apache-2.0 許可證。
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
基於DistilBERT-base-uncased在SST-2情感分析數據集上微調的文本分類模型,準確率91.3%
文本分類 英語
D
distilbert
5.2M
746
Xlm Roberta Base Language Detection
MIT
基於XLM-RoBERTa的多語言檢測模型,支持20種語言的文本分類
文本分類
Transformers 支持多種語言

X
papluca
2.7M
333
Roberta Hate Speech Dynabench R4 Target
該模型通過動態生成數據集來改進在線仇恨檢測,專注於從最差案例中學習以提高檢測效果。
文本分類
Transformers 英語

R
facebook
2.0M
80
Bert Base Multilingual Uncased Sentiment
MIT
基於bert-base-multilingual-uncased微調的多語言情感分析模型,支持6種語言的商品評論情感分析
文本分類 支持多種語言
B
nlptown
1.8M
371
Emotion English Distilroberta Base
基於DistilRoBERTa-base微調的英文文本情感分類模型,可預測埃克曼六種基本情緒及中性類別。
文本分類
Transformers 英語

E
j-hartmann
1.1M
402
Robertuito Sentiment Analysis
基於RoBERTuito的西班牙語推文情感分析模型,支持POS(積極)/NEG(消極)/NEU(中性)三類情感分類
文本分類 西班牙語
R
pysentimiento
1.0M
88
Finbert Tone
FinBERT是一款基於金融通訊文本預訓練的BERT模型,專注於金融自然語言處理領域。finbert-tone是其微調版本,用於金融情感分析任務。
文本分類
Transformers 英語

F
yiyanghkust
998.46k
178
Roberta Base Go Emotions
MIT
基於RoBERTa-base的多標籤情感分類模型,在go_emotions數據集上訓練,支持28種情感標籤識別。
文本分類
Transformers 英語

R
SamLowe
848.12k
565
Xlm Emo T
XLM-EMO是一個基於XLM-T模型微調的多語言情感分析模型,支持19種語言,專門針對社交媒體文本的情感預測。
文本分類
Transformers 其他

X
MilaNLProc
692.30k
7
Deberta V3 Base Mnli Fever Anli
MIT
基於MultiNLI、Fever-NLI和ANLI數據集訓練的DeBERTa-v3模型,擅長零樣本分類和自然語言推理任務
文本分類
Transformers 英語

D
MoritzLaurer
613.93k
204
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98