🚀 quickmt-zh-en
ニューラル機械翻訳モデル
quickmt-zh-en
は、zh
から en
への翻訳に適した、適度な速度と精度を兼ね備えたニューラル機械翻訳モデルです。
✨ 主な機能
- このモデルは、中国語から英語への翻訳に特化しており、適度な速度と精度を提供します。
- トレーニングには、
eole
を使用しています。
- 200M パラメータのトランスフォーマー 'big' モデルで、エンコーダーが 8 層、デコーダーが 2 層で構成されています。
- ソースとターゲットにそれぞれ独立した Sentencepiece トークナイザーを使用しています。
- 高速推論用に CTranslate2 形式にエクスポートされています。
- トレーニングデータは、https://huggingface.co/datasets/quickmt/quickmt-train.zh-en/tree/main から入手できます。
📦 インストール
まず、quickmt
をインストールし、モデルをダウンロードします。
git clone https://github.com/quickmt/quickmt.git
pip install ./quickmt/
quickmt-model-download quickmt/quickmt-zh-en ./quickmt-zh-en
💻 使用例
基本的な使用法
from quickmt import Translator
t = Translator("./quickmt-zh-en/", device="auto")
t(["他补充道:“我们现在有 4 个月大没有糖尿病的老鼠,但它们曾经得过该病。”"], beam_size=1)
t(["他补充道:“我们现在有 4 个月大没有糖尿病的老鼠,但它们曾经得过该病。”"], sampling_temperature=1.2, beam_size=1, sampling_topk=50, sampling_topp=0.9)
このモデルは ctranslate2
形式であり、トークナイザーは sentencepiece
です。したがって、quickmt
を介さずに ctranslate2
を直接使用することもできます。また、ctranslate2
と sentencepiece
を使用する LibreTranslate などの他のツールでもこのモデルを使用できます。
📚 ドキュメント
メトリクス
sacrebleu を使用して、Flores200 devtest
テストセット("zho_Hans"->"eng_Latn")で BLEU と CHRF2 を計算しています。COMET22 は、comet
ライブラリと デフォルトモデル を使用して計算しています。"Time (s)" は、RTX 4070s GPU でバッチサイズ 32 で flores-devtest データセット(1012 文)を翻訳するのにかかる時間(秒)です。
モデル |
bleu |
chrf2 |
comet22 |
Time (s) |
quickmt/quickmt-zh-en |
29.36 |
58.10 |
0.8655 |
0.88 |
Helsinki-NLP/opus-mt-zh-en |
23.35 |
53.60 |
0.8426 |
3.78 |
facebook/m2m100_418M |
15.99 |
50.13 |
0.7881 |
16.61 |
facebook/nllb-200-distilled-600M |
26.22 |
55.18 |
0.8507 |
20.89 |
facebook/m2m100_1.2B |
20.30 |
54.23 |
0.8206 |
33.12 |
facebook/nllb-200-distilled-1.3B |
28.56 |
57.35 |
0.8620 |
36.64 |
quickmt-zh-en
は、最も高速で、かつ最も高品質なモデルです。
📄 ライセンス
このモデルは、CC BY 4.0 ライセンスの下で提供されています。