🚀 xtremedistil-l6-h256-zeroshot-v1.1-all-33
本模型是一個輕量級且高效的零樣本分類模型,專為邊緣設備或瀏覽器內使用場景設計,在保證一定性能的同時,顯著提升了推理速度。
🚀 快速開始
本模型使用了與 MoritzLaurer/deberta-v3-large-zeroshot-v1.1-all-33 模型卡片中描述的相同流程進行微調,詳細信息可參考此 論文。
基礎模型為 microsoft/xtremedistil-l6-h256-uncased。該模型僅具有 2200 萬個骨幹參數和 3000 萬個詞彙參數。骨幹參數是推理過程中活躍的主要參數,相較於更大的模型,能顯著提升推理速度。模型大小僅為 25 MB。
本模型經過訓練,旨在提供一種非常小且高效的零樣本分類選項,尤其適用於邊緣設備或使用 transformers.js 的瀏覽器內用例。
📚 詳細文檔
有關使用說明和其他詳細信息,請參考 MoritzLaurer/deberta-v3-large-zeroshot-v1.1-all-33 模型卡片以及此 論文。
🔧 技術細節
為節省時間和計算資源,未對該模型進行零樣本評估。下表展示了模型在所有訓練數據集上的標準準確率(請注意,NLI 數據集為二分類)。
總體而言,該模型比其更大的同類模型效率更高,但性能稍遜一籌。
數據集 |
mnli_m |
mnli_mm |
fevernli |
anli_r1 |
anli_r2 |
anli_r3 |
wanli |
lingnli |
wellformedquery |
rottentomatoes |
amazonpolarity |
imdb |
yelpreviews |
hatexplain |
massive |
banking77 |
emotiondair |
emocontext |
empathetic |
agnews |
yahootopics |
biasframes_sex |
biasframes_offensive |
biasframes_intent |
financialphrasebank |
appreviews |
hateoffensive |
trueteacher |
spam |
wikitoxic_toxicaggregated |
wikitoxic_obscene |
wikitoxic_identityhate |
wikitoxic_threat |
wikitoxic_insult |
manifesto |
capsotu |
準確率 |
0.894 |
0.895 |
0.854 |
0.629 |
0.582 |
0.618 |
0.772 |
0.826 |
0.684 |
0.794 |
0.91 |
0.879 |
0.935 |
0.676 |
0.651 |
0.521 |
0.654 |
0.707 |
0.369 |
0.858 |
0.649 |
0.876 |
0.836 |
0.839 |
0.849 |
0.892 |
0.894 |
0.525 |
0.976 |
0.88 |
0.901 |
0.874 |
0.903 |
0.886 |
0.433 |
0.619 |
推理文本/秒(A10G GPU,批次大小 = 128) |
4117.0 |
4093.0 |
1935.0 |
2984.0 |
3094.0 |
2683.0 |
5788.0 |
4926.0 |
9701.0 |
6359.0 |
1843.0 |
692.0 |
756.0 |
5561.0 |
10172.0 |
9070.0 |
7511.0 |
7480.0 |
2256.0 |
3942.0 |
1020.0 |
4362.0 |
4034.0 |
4185.0 |
5449.0 |
2606.0 |
6343.0 |
931.0 |
5550.0 |
864.0 |
839.0 |
837.0 |
832.0 |
857.0 |
4418.0 |
4845.0 |
📄 許可證
本模型採用 MIT 許可證。