🚀 roberta-base-wechsel-swahili
このモデルはWECHSELを使用して訓練されており、サブワード埋め込みを効果的に初期化し、単言語モデルのクロス言語移行に使用できます。
コードを見るにはこちらをクリック:https://github.com/CPJKU/wechsel
論文を見るにはこちらをクリック:https://aclanthology.org/2022.naacl-main.293/
🚀 クイックスタート
このモデルは、WECHSELを用いて訓練され、サブワード埋め込みを効果的に初期化することで、単言語モデルのクロス言語移行を可能にします。コードや論文の詳細は上記のリンクから確認できます。
✨ 主な機能
このモデルはWECHSEL手法を利用して、事前学習された言語モデルを新しい言語に効率的かつ効果的に移行することができます。特に、クロス言語パラメータ移行において優れた性能を発揮し、同規模のゼロから訓練するモデルと比較して、訓練コストを1/64に抑えながら、より良い結果を得ることができます。
📚 ドキュメント
性能評価
RoBERTaモデル
モデル |
自然言語推論(NLI)スコア |
固有表現認識(NER)スコア |
平均スコア |
roberta-base-wechsel-french |
82.43 |
90.88 |
86.65 |
camembert-base |
80.88 |
90.26 |
85.57 |
モデル |
自然言語推論(NLI)スコア |
固有表現認識(NER)スコア |
平均スコア |
roberta-base-wechsel-german |
81.79 |
89.72 |
85.76 |
deepset/gbert-base |
78.64 |
89.46 |
84.05 |
モデル |
自然言語推論(NLI)スコア |
固有表現認識(NER)スコア |
平均スコア |
roberta-base-wechsel-chinese |
78.32 |
80.55 |
79.44 |
bert-base-chinese |
76.55 |
82.05 |
79.30 |
モデル |
自然言語推論(NLI)スコア |
固有表現認識(NER)スコア |
平均スコア |
roberta-base-wechsel-swahili |
75.05 |
87.39 |
81.22 |
xlm-roberta-base |
69.18 |
87.37 |
78.28 |
GPT2モデル
モデル |
困惑度(PPL) |
gpt2-wechsel-french |
19.71 |
gpt2 (ゼロから再訓練) |
20.47 |
モデル |
困惑度(PPL) |
gpt2-wechsel-german |
26.8 |
gpt2 (ゼロから再訓練) |
27.63 |
モデル |
困惑度(PPL) |
gpt2-wechsel-chinese |
51.97 |
gpt2 (ゼロから再訓練) |
52.98 |
モデル |
困惑度(PPL) |
gpt2-wechsel-swahili |
10.14 |
gpt2 (ゼロから再訓練) |
10.58 |
詳細な情報については、論文を参照してください。
📄 ライセンス
このプロジェクトはMITライセンスの下で提供されています。
📚 引用情報
もしこのモデルや関連研究を使用する場合は、以下の論文を引用してください。
@inproceedings{minixhofer-etal-2022-wechsel,
title = "{WECHSEL}: Effective initialization of subword embeddings for cross-lingual transfer of monolingual language models",
author = "Minixhofer, Benjamin and
Paischer, Fabian and
Rekabsaz, Navid",
booktitle = "Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies",
month = jul,
year = "2022",
address = "Seattle, United States",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2022.naacl-main.293",
pages = "3992--4006",
abstract = "Large pretrained language models (LMs) have become the central building block of many NLP applications. Training these models requires ever more computational resources and most of the existing models are trained on English text only. It is exceedingly expensive to train these models in other languages. To alleviate this problem, we introduce a novel method {--} called WECHSEL {--} to efficiently and effectively transfer pretrained LMs to new languages. WECHSEL can be applied to any model which uses subword-based tokenization and learns an embedding for each subword. The tokenizer of the source model (in English) is replaced with a tokenizer in the target language and token embeddings are initialized such that they are semantically similar to the English tokens by utilizing multilingual static word embeddings covering English and the target language. We use WECHSEL to transfer the English RoBERTa and GPT-2 models to four languages (French, German, Chinese and Swahili). We also study the benefits of our method on very low-resource languages. WECHSEL improves over proposed methods for cross-lingual parameter transfer and outperforms models of comparable size trained from scratch with up to 64x less training effort. Our method makes training large language models for new languages more accessible and less damaging to the environment. We make our code and models publicly available.",
}