🚀 zhtw-en
このモデルは、台湾風の繁體中文を理解し、より正確な英文翻訳を生成することを目的として、繁體中文の文章を英文に翻訳します。
🚀 クイックスタート
このモデルは、Helsinki-NLP/opus-mt-zh-en をベースに、zetavg/coct-en-zh-tw-translations-twp-300k データセットでファインチューニングされました。評価セットでは、以下の結果を達成しています。
- 損失: 2.4350
- 処理された入力トークン数: 55653732
✨ 主な機能
意図された使用例
- 中国語の単文を英語に翻訳すること。
- 台湾で話される中国語を理解する必要があるアプリケーション。
制限事項
- 単文翻訳を目的として設計されているため、前処理なしでは長いテキストでは性能が低下する可能性があります。
- 特に入力が短いまたは長い場合、情報を幻覚的に生成したり省略したりすることがあります。
- さらなるファインチューニングによりこの問題を解決できます。
📦 インストール
このセクションでは、インストールに関する情報が提供されていません。
💻 使用例
基本的な使用法
from transformers import pipeline
model_checkpoint = "agentlans/zhtw-en"
translator = pipeline("translation", model=model_checkpoint)
translator("《阿奇大戰鐵血戰士》是2015年4至7月黑馬漫畫和阿奇漫畫在美國發行的四期限量連環漫畫圖書,由亞歷克斯·德坎皮創作,費爾南多·魯伊斯繪圖,屬跨公司跨界作品。")[0]['translation_text']
📚 ドキュメント
トレーニング手順
トレーニングハイパーパラメータ
トレーニング中に使用されたハイパーパラメータは以下の通りです。
- 学習率: 5e-05
- トレーニングバッチサイズ: 8
- 評価バッチサイズ: 8
- シード: 42
- オプティマイザ: betas=(0.9,0.999) および epsilon=1e-08 の adamw_torch
- 学習率スケジューラタイプ: linear
- エポック数: 3.0
トレーニング結果
トレーニングと検証の損失を表示するにはここをクリック
トレーニング損失 |
エポック |
ステップ |
検証損失 |
処理された入力トークン数 |
3.2254 |
0.0804 |
2500 |
2.9105 |
1493088 |
3.0946 |
0.1608 |
5000 |
2.8305 |
2990968 |
3.0473 |
0.2412 |
7500 |
2.7737 |
4477792 |
2.9633 |
0.3216 |
10000 |
2.7307 |
5967560 |
2.9355 |
0.4020 |
12500 |
2.6843 |
7463192 |
2.9076 |
0.4824 |
15000 |
2.6587 |
8950264 |
2.8714 |
0.5628 |
17500 |
2.6304 |
10443344 |
2.8716 |
0.6433 |
20000 |
2.6025 |
11951096 |
2.7989 |
0.7237 |
22500 |
2.5822 |
13432464 |
2.7941 |
0.8041 |
25000 |
2.5630 |
14919424 |
2.7692 |
0.8845 |
27500 |
2.5497 |
16415080 |
2.757 |
0.9649 |
30000 |
2.5388 |
17897832 |
2.7024 |
1.0453 |
32500 |
2.6006 |
19384812 |
2.7248 |
1.1257 |
35000 |
2.6042 |
20876844 |
2.6764 |
1.2061 |
37500 |
2.5923 |
22372340 |
2.6854 |
1.2865 |
40000 |
2.5793 |
23866100 |
2.683 |
1.3669 |
42500 |
2.5722 |
25348084 |
2.6871 |
1.4473 |
45000 |
2.5538 |
26854100 |
2.6551 |
1.5277 |
47500 |
2.5443 |
28332612 |
2.661 |
1.6081 |
50000 |
2.5278 |
29822156 |
2.6497 |
1.6885 |
52500 |
2.5266 |
31319476 |
2.6281 |
1.7689 |
55000 |
2.5116 |
32813220 |
2.6067 |
1.8494 |
57500 |
2.5047 |
34298052 |
2.6112 |
1.9298 |
60000 |
2.4935 |
35783604 |
2.5207 |
2.0102 |
62500 |
2.4946 |
37281092 |
2.4799 |
2.0906 |
65000 |
2.4916 |
38768588 |
2.4727 |
2.1710 |
67500 |
2.4866 |
40252972 |
2.4719 |
2.2514 |
70000 |
2.4760 |
41746300 |
2.4738 |
2.3318 |
72500 |
2.4713 |
43241188 |
2.4629 |
2.4122 |
75000 |
2.4630 |
44730244 |
2.4524 |
2.4926 |
77500 |
2.4575 |
46231060 |
2.435 |
2.5730 |
80000 |
2.4553 |
47718964 |
2.4621 |
2.6534 |
82500 |
2.4475 |
49209724 |
2.4492 |
2.7338 |
85000 |
2.4440 |
50712980 |
2.4536 |
2.8142 |
87500 |
2.4394 |
52204380 |
2.4148 |
2.8946 |
90000 |
2.4360 |
53695620 |
2.4243 |
2.9750 |
92500 |
2.4350 |
55190020 |
フレームワークバージョン
- Transformers 4.48.1
- Pytorch 2.3.0+cu121
- Datasets 3.2.0
- Tokenizers 0.21.0
🔧 技術詳細
このセクションでは、技術的な詳細に関する情報が提供されていません。
📄 ライセンス
このモデルは cc-by-4.0 ライセンスの下で提供されています。