🚀 alv-eng 翻訳モデル
このプロジェクトは、Atlantic-Congo言語群(alv)から英語(eng)への翻訳を行うTransformerモデルを提供します。様々な言語の翻訳ベンチマークデータが用意されており、モデルの性能を評価することができます。
🚀 クイックスタート
このモデルを使用するには、以下の手順に従ってください。
- モデルのオリジナルの重みをダウンロードします。
- テストセットの翻訳結果やスコアを確認することができます。
✨ 主な機能
- 多言語対応: 複数のAtlantic-Congo言語(ewe、fuc、iboなど)から英語への翻訳が可能です。
- 前処理機能: 正規化とSentencePiece(spm32k, spm32k)による前処理が施されています。
📦 インストール
モデルのオリジナルの重みをダウンロードすることで、ローカル環境で使用することができます。
ダウンロードリンク: [opus2m-2020-07-31.zip](https://object.pouta.csc.fi/Tatoeba-MT-models/alv-eng/opus2m-2020-07-31.zip)
📚 ドキュメント
モデル情報
システム情報
- hf_name: alv-eng
- ソース言語: alv
- ターゲット言語: eng
- OPUSのREADME URL: alv-eng
- オリジナルのリポジトリ: Tatoeba-Challenge
- タグ: ['translation']
- 言語: ['sn', 'rw', 'wo', 'ig', 'sg', 'ee', 'zu', 'lg', 'ts', 'ln', 'ny', 'yo', 'rn', 'xh', 'alv', 'en']
- ソース言語の構成要素: {'sna', 'kin', 'wol', 'ibo', 'swh', 'sag', 'ewe', 'zul', 'fuc', 'lug', 'tso', 'lin', 'nya', 'yor', 'run', 'xho', 'fuv', 'toi_Latn', 'umb'}
- ターゲット言語の構成要素: {'eng'}
- ソース言語の多言語対応: True
- ターゲット言語の多言語対応: False
- 前処理: 正規化 + SentencePiece (spm32k,spm32k)
- モデルのURL: opus2m-2020-07-31.zip
- テストセットのURL: opus2m-2020-07-31.test.txt
- ソース言語のISO 639-3コード: alv
- ターゲット言語のISO 639-3コード: eng
- 短い言語ペア: alv-en
- chrF2スコア: 0.376
- BLEUスコア: 20.9
- 簡潔ペナルティ: 1.0
- 参照文の長さ: 15208.0
- ソース言語の名前: Atlantic-Congo languages
- ターゲット言語の名前: English
- 学習日: 2020-07-31
- ソース言語のISO 639-2コード: alv
- ターゲット言語のISO 639-2コード: en
- 古いモデルの優先: False
- 長い言語ペア: alv-eng
- HelsinkiのGit SHA: 480fcbe0ee1bf4774bcbe6226ad9f58e63f6c535
- TransformersのGit SHA: 2207e5d8cb224e954a7cba69fa4ac2309e9ff30b
- 移植先のマシン: brutasse
- 移植時間: 2020-08-21-14:41
🔧 技術詳細
このモデルはTransformerアーキテクチャを使用しており、前処理として正規化とSentencePiece(spm32k, spm32k)が行われています。モデルの性能は、様々なテストセットを使用して評価されており、BLEUやchr-Fなどの指標で評価されています。
📄 ライセンス
このプロジェクトはApache-2.0ライセンスの下で提供されています。
📊 ベンチマーク
テストセット |
BLEU |
chr-F |
Tatoeba-test.ewe-eng.ewe.eng |
6.3 |
0.328 |
Tatoeba-test.ful-eng.ful.eng |
0.4 |
0.108 |
Tatoeba-test.ibo-eng.ibo.eng |
4.5 |
0.196 |
Tatoeba-test.kin-eng.kin.eng |
30.7 |
0.511 |
Tatoeba-test.lin-eng.lin.eng |
2.8 |
0.213 |
Tatoeba-test.lug-eng.lug.eng |
3.4 |
0.140 |
Tatoeba-test.multi.eng |
20.9 |
0.376 |
Tatoeba-test.nya-eng.nya.eng |
38.7 |
0.492 |
Tatoeba-test.run-eng.run.eng |
24.5 |
0.417 |
Tatoeba-test.sag-eng.sag.eng |
5.5 |
0.177 |
Tatoeba-test.sna-eng.sna.eng |
26.9 |
0.412 |
Tatoeba-test.swa-eng.swa.eng |
4.9 |
0.196 |
Tatoeba-test.toi-eng.toi.eng |
3.9 |
0.147 |
Tatoeba-test.tso-eng.tso.eng |
76.7 |
0.957 |
Tatoeba-test.umb-eng.umb.eng |
4.0 |
0.195 |
Tatoeba-test.wol-eng.wol.eng |
3.7 |
0.170 |
Tatoeba-test.xho-eng.xho.eng |
38.9 |
0.556 |
Tatoeba-test.yor-eng.yor.eng |
25.1 |
0.412 |
Tatoeba-test.zul-eng.zul.eng |
46.1 |
0.623 |