🚀 opus-mt-tc-big-zls-en
这是一个用于将南斯拉夫语系(zls)翻译成英语(en)的神经机器翻译模型。它是OPUS - MT项目的一部分,该项目致力于让神经机器翻译模型在全球多种语言中广泛可用。
🚀 快速开始
此模型可用于将南斯拉夫语系的文本翻译成英语。它基于OPUS - MT项目开发,利用Marian NMT框架进行训练,并通过huggingface的transformers库转换为pyTorch模型。
✨ 主要特性
- 多语言支持:支持保加利亚语(bg)、波斯尼亚语(bs)、克罗地亚语(hr)、马其顿语(mk)、塞尔维亚 - 克罗地亚语(sh)、斯洛文尼亚语(sl)、塞尔维亚语(sr)等南斯拉夫语系语言到英语的翻译。
- 开源项目:作为OPUS - MT项目的一部分,遵循开放原则,便于研究和使用。
- 高效训练:使用Marian NMT框架进行训练,该框架用纯C++编写,训练效率高。
📦 安装指南
文档未提及具体安装步骤,暂不提供。
💻 使用示例
基础用法
from transformers import MarianMTModel, MarianTokenizer
src_text = [
"Да не би случайно Том да остави Мери да кара колата?",
"Какво е времето днес?"
]
model_name = "pytorch-models/opus-mt-tc-big-zls-en"
tokenizer = MarianTokenizer.from_pretrained(model_name)
model = MarianMTModel.from_pretrained(model_name)
translated = model.generate(**tokenizer(src_text, return_tensors="pt", padding=True))
for t in translated:
print( tokenizer.decode(t, skip_special_tokens=True) )
高级用法
from transformers import pipeline
pipe = pipeline("translation", model="Helsinki-NLP/opus-mt-tc-big-zls-en")
print(pipe("Да не би случайно Том да остави Мери да кара колата?"))
📚 详细文档
模型信息
基准测试
语言对 |
测试集 |
chr - F |
BLEU |
句子数量 |
单词数量 |
bos_Latn - eng |
tatoeba - test - v2021 - 08 - 07 |
0.79339 |
66.5 |
301 |
1826 |
bul - eng |
tatoeba - test - v2021 - 08 - 07 |
0.72656 |
59.3 |
10000 |
71872 |
hbs - eng |
tatoeba - test - v2021 - 08 - 07 |
0.71783 |
57.3 |
10017 |
68934 |
hrv - eng |
tatoeba - test - v2021 - 08 - 07 |
0.74066 |
59.2 |
1480 |
10620 |
mkd - eng |
tatoeba - test - v2021 - 08 - 07 |
0.70043 |
57.4 |
10010 |
65667 |
slv - eng |
tatoeba - test - v2021 - 08 - 07 |
0.39534 |
23.5 |
2495 |
16940 |
srp_Cyrl - eng |
tatoeba - test - v2021 - 08 - 07 |
0.67628 |
47.0 |
1580 |
10181 |
srp_Latn - eng |
tatoeba - test - v2021 - 08 - 07 |
0.71878 |
58.5 |
6656 |
46307 |
bul - eng |
flores101 - devtest |
0.67375 |
42.0 |
1012 |
24721 |
hrv - eng |
flores101 - devtest |
0.63914 |
37.1 |
1012 |
24721 |
mkd - eng |
flores101 - devtest |
0.67444 |
43.2 |
1012 |
24721 |
slv - eng |
flores101 - devtest |
0.62087 |
35.2 |
1012 |
24721 |
srp_Cyrl - eng |
flores101 - devtest |
0.67810 |
36.8 |
1012 |
24721 |
测试集翻译:opusTCv20210807+bt_transformer-big_2022-03-17.test.txt
测试集得分:opusTCv20210807+bt_transformer-big_2022-03-17.eval.txt
基准测试结果:benchmark_results.txt
基准测试输出:benchmark_translations.zip
🔧 技术细节
此模型最初使用Marian NMT框架进行训练,该框架是一个用纯C++编写的高效NMT实现。之后,使用huggingface的transformers库将模型转换为pyTorch模型。训练数据来自OPUS,训练流程遵循OPUS - MT - train的程序。
📄 许可证
该模型遵循CC - BY - 4.0许可证。
引用说明
如果使用此模型,请引用以下出版物:
@inproceedings{tiedemann-thottingal-2020-opus,
title = "{OPUS}-{MT} {--} Building open translation services for the World",
author = {Tiedemann, J{\"o}rg and Thottingal, Santhosh},
booktitle = "Proceedings of the 22nd Annual Conference of the European Association for Machine Translation",
month = nov,
year = "2020",
address = "Lisboa, Portugal",
publisher = "European Association for Machine Translation",
url = "https://aclanthology.org/2020.eamt-1.61",
pages = "479--480",
}
@inproceedings{tiedemann-2020-tatoeba,
title = "The Tatoeba Translation Challenge {--} Realistic Data Sets for Low Resource and Multilingual {MT}",
author = {Tiedemann, J{\"o}rg},
booktitle = "Proceedings of the Fifth Conference on Machine Translation",
month = nov,
year = "2020",
address = "Online",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2020.wmt-1.139",
pages = "1174--1182",
}
致谢
本工作得到了以下项目的支持:
同时,感谢CSC -- IT Center for Science(芬兰)提供的计算资源和IT基础设施。
模型转换信息
- transformers版本:4.16.2
- OPUS - MT git哈希值:3405783
- 转换时间:Wed Apr 13 20:12:26 EEST 2022
- 转换机器:LM0 - 400 - 22516.local