🚀 FSMT
FSMT是一個用於機器翻譯的模型,它基於fairseq的wmt19 transformer架構,支持俄語和英語之間的翻譯。該模型在機器翻譯任務中具有較高的準確性和效率。
🚀 快速開始
安裝
你可以通過以下步驟安裝所需的庫:
pip install transformers
使用示例
以下是一個使用FSMT進行俄語到英語翻譯的示例代碼:
from transformers import FSMTForConditionalGeneration, FSMTTokenizer
mname = "facebook/wmt19-ru-en"
tokenizer = FSMTTokenizer.from_pretrained(mname)
model = FSMTForConditionalGeneration.from_pretrained(mname)
input = "Машинное обучение - это здорово, не так ли?"
input_ids = tokenizer.encode(input, return_tensors="pt")
outputs = model.generate(input_ids)
decoded = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(decoded)
✨ 主要特性
- 多語言支持:支持俄語和英語之間的雙向翻譯。
- 模型多樣:提供了四種不同的翻譯模型,包括
wmt19-en-ru
、wmt19-ru-en
、wmt19-en-de
和wmt19-de-en
。
📚 詳細文檔
模型描述
這是fairseq wmt19 transformer的俄語到英語的移植版本。更多詳細信息,請參考Facebook FAIR的WMT19新聞翻譯任務提交。
縮寫FSMT代表FairSeq Machine Translation。所有四種模型均可使用:
預期用途和限制
使用方法
你可以使用上述的示例代碼進行翻譯。
限制和偏差
- 原始模型(以及這個移植版本)似乎不能很好地處理包含重複子短語的輸入,內容會被截斷。
訓練數據
預訓練權重與fairseq發佈的原始模型相同。更多詳細信息,請參考論文。
評估結果
語言對 |
fairseq |
transformers |
ru-en |
41.3 |
39.20 |
得分略低於fairseq
報告的得分,因為transformers
目前不支持:
- 模型集成,因此移植了性能最佳的檢查點(
model4.pt
)。
- 重新排序。
得分是使用以下代碼計算的:
git clone https://github.com/huggingface/transformers
cd transformers
export PAIR=ru-en
export DATA_DIR=data/$PAIR
export SAVE_DIR=data/$PAIR
export BS=8
export NUM_BEAMS=15
mkdir -p $DATA_DIR
sacrebleu -t wmt19 -l $PAIR --echo src > $DATA_DIR/val.source
sacrebleu -t wmt19 -l $PAIR --echo ref > $DATA_DIR/val.target
echo $PAIR
PYTHONPATH="src:examples/seq2seq" python examples/seq2seq/run_eval.py facebook/wmt19-$PAIR $DATA_DIR/val.source $SAVE_DIR/test_translations.txt --reference_path $DATA_DIR/val.target --score_path $SAVE_DIR/test_bleu.json --bs $BS --task translation --num_beams $NUM_BEAMS
注意:fairseq報告使用的束寬為50,因此如果你使用--num_beams 50
重新運行,應該會得到略高的分數。
數據來源
BibTeX引用和引用信息
@inproceedings{...,
year={2020},
title={Facebook FAIR's WMT19 News Translation Task Submission},
author={Ng, Nathan and Yee, Kyra and Baevski, Alexei and Ott, Myle and Auli, Michael and Edunov, Sergey},
booktitle={Proc. of WMT},
}
TODO
📄 許可證
本項目採用Apache-2.0許可證。