🚀 mBART - 50 多對多多語言機器翻譯
mBART - 50 是一個強大的多語言機器翻譯模型,它能夠在 50 種語言之間直接進行翻譯,為跨語言交流提供了高效的解決方案。
🚀 快速開始
本模型是 mBART - large - 50 的微調版本。mbart-large-50-many-to-many-mmt
針對多語言機器翻譯進行了微調,其相關研究在 Multilingual Translation with Extensible Multilingual Pretraining and Finetuning 論文中被提出。
該模型可以在任意 50 種語言對之間直接進行翻譯。若要將內容翻譯成目標語言,需要將目標語言 ID 作為首個生成的標記。可通過向 generate
方法傳遞 forced_bos_token_id
參數來實現這一操作。
💻 使用示例
基礎用法
from transformers import MBartForConditionalGeneration, MBart50TokenizerFast
article_hi = "संयुक्त राष्ट्र के प्रमुख का कहना है कि सीरिया में कोई सैन्य समाधान नहीं है"
article_ar = "الأمين العام للأمم المتحدة يقول إنه لا يوجد حل عسكري في سوريا."
model = MBartForConditionalGeneration.from_pretrained("facebook/mbart-large-50-many-to-many-mmt")
tokenizer = MBart50TokenizerFast.from_pretrained("facebook/mbart-large-50-many-to-many-mmt")
tokenizer.src_lang = "hi_IN"
encoded_hi = tokenizer(article_hi, return_tensors="pt")
generated_tokens = model.generate(
**encoded_hi,
forced_bos_token_id=tokenizer.lang_code_to_id["fr_XX"]
)
tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
tokenizer.src_lang = "ar_AR"
encoded_ar = tokenizer(article_ar, return_tensors="pt")
generated_tokens = model.generate(
**encoded_ar,
forced_bos_token_id=tokenizer.lang_code_to_id["en_XX"]
)
tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
📚 詳細文檔
可前往 模型中心 查找更多微調版本。
📋 支持語言
屬性 |
詳情 |
支持語言 |
阿拉伯語 (ar_AR)、捷克語 (cs_CZ)、德語 (de_DE)、英語 (en_XX)、西班牙語 (es_XX)、愛沙尼亞語 (et_EE)、芬蘭語 (fi_FI)、法語 (fr_XX)、古吉拉特語 (gu_IN)、印地語 (hi_IN)、意大利語 (it_IT)、日語 (ja_XX)、哈薩克語 (kk_KZ)、韓語 (ko_KR)、立陶宛語 (lt_LT)、拉脫維亞語 (lv_LV)、緬甸語 (my_MM)、尼泊爾語 (ne_NP)、荷蘭語 (nl_XX)、羅馬尼亞語 (ro_RO)、俄語 (ru_RU)、僧伽羅語 (si_LK)、土耳其語 (tr_TR)、越南語 (vi_VN)、中文 (zh_CN)、南非荷蘭語 (af_ZA)、阿塞拜疆語 (az_AZ)、孟加拉語 (bn_IN)、波斯語 (fa_IR)、希伯來語 (he_IL)、克羅地亞語 (hr_HR)、印尼語 (id_ID)、格魯吉亞語 (ka_GE)、高棉語 (km_KH)、馬其頓語 (mk_MK)、馬拉雅拉姆語 (ml_IN)、蒙古語 (mn_MN)、馬拉地語 (mr_IN)、波蘭語 (pl_PL)、普什圖語 (ps_AF)、葡萄牙語 (pt_XX)、瑞典語 (sv_SE)、斯瓦希里語 (sw_KE)、泰米爾語 (ta_IN)、泰盧固語 (te_IN)、泰語 (th_TH)、他加祿語 (tl_XX)、烏克蘭語 (uk_UA)、烏爾都語 (ur_PK)、科薩語 (xh_ZA)、加利西亞語 (gl_ES)、斯洛文尼亞語 (sl_SI) |
📖 引用信息
@article{tang2020multilingual,
title={Multilingual Translation with Extensible Multilingual Pretraining and Finetuning},
author={Yuqing Tang and Chau Tran and Xian Li and Peng-Jen Chen and Naman Goyal and Vishrav Chaudhary and Jiatao Gu and Angela Fan},
year={2020},
eprint={2008.00401},
archivePrefix={arXiv},
primaryClass={cs.CL}
}