🚀 基於lmg - anon/vntl - llama3 - 8b - v2 - hf的日語視覺小說英譯微調模型
本項目是一個基於特定模型的微調項目,旨在提升大語言模型將日語視覺小說翻譯成英語的性能。通過使用新版的VNTL數據集進行微調,在準確性和穩定性方面有顯著提升。
🚀 快速開始
本項目是對 LLaMA 3 Youko 進行的QLoRA微調,使用了新版的VNTL數據集。其目的是提高大語言模型將日語視覺小說翻譯成英語的性能。與之前的版本不同,此版本不包含“聊天模式”。
✨ 主要特性
- 性能提升:重新構建並擴展了VNTL數據集,在準確性和穩定性方面優於之前的版本,即使在高溫設置下也能減少錯誤(不過為獲得最佳準確性,仍建議溫度設置為0)。
- 格式調整:切換到默認的LLaMA3提示格式,解決了之前自定義格式帶來的使用問題。
- 多行支持:增加了對多行翻譯的適當支持,而舊版本僅處理單行翻譯。
- 精度優化:整體翻譯準確性更高,但譯文相較於之前版本更傾向於直譯。
📦 安裝指南
文檔未提供安裝步驟,暫不展示。
💻 使用示例
基礎用法
本微調使用LLaMA 3提示格式,以下是一個翻譯的提示示例:
<|begin_of_text|><|start_header_id|>Metadata<|end_header_id|>
[character] Name: Uryuu Shingo (瓜生 新吾) | Gender: Male | Aliases: Onii-chan (お兄ちゃん)
[character] Name: Uryuu Sakuno (瓜生 桜乃) | Gender: Female<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[桜乃]: 『……ごめん』<|eot_id|><|start_header_id|>English<|end_header_id|>
[Sakuno]: 『... Sorry.』<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[新吾]: 「ううん、こう言っちゃなんだけど、迷子でよかったよ。桜乃は可愛いから、いろいろ心配しちゃってたんだぞ俺」<|eot_id|><|start_header_id|>English<|end_header_id|>
[Shingo]: "Nah, I know it’s weird to say this, but I’m glad you got lost. You’re so cute, Sakuno, so I was really worried about you."<|eot_id|>
該提示在溫度為0時生成的翻譯為:
[Shingo]: "Nah, I know it’s weird to say this, but I’m glad you got lost. You’re so cute, Sakuno, so I was really worried about you."
高級用法
元數據部分不僅限於角色信息,你還可以添加瑣事信息,並教導模型正確發音它難以處理的單詞。以下是一個示例:
<|begin_of_text|><|start_header_id|>Metadata<|end_header_id|>
[character] Name: Uryuu Shingo (瓜生 新吾) | Gender: Male | Aliases: Onii-chan (お兄ちゃん)
[character] Name: Uryuu Sakuno (瓜生 桜乃) | Gender: Female
[element] Name: Murasamemaru (叢雨丸) | Type: Quality<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[桜乃]: 『……ごめん』<|eot_id|><|start_header_id|>English<|end_header_id|>
[Sakuno]: 『... Sorry.』<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[新吾]: 「ううん、こう言っちゃなんだけど、迷子でよかったよ。桜乃は叢雨丸いから、いろいろ心配しちゃってたんだぞ俺」<|eot_id|><|start_header_id|>English<|end_header_id|>
該提示在溫度為0時生成的翻譯為:
[Shingo]: "Nah, I know it’s not the best thing to say, but I’m glad you got lost. Sakuno’s Murasamemaru, so I was really worried about you, you know?"
📚 詳細文檔
採樣建議
為獲得最佳結果,使用此模型時強烈建議使用中性採樣參數(溫度為0且無重複懲罰)。
訓練細節
本次微調使用的超參數與 之前的版本 相似,唯一的區別是使用了全新的數據集。
屬性 |
詳情 |
秩(Rank) |
128 |
阿爾法(Alpha) |
32 |
有效批量大小(Effective Batch Size) |
45 |
熱身比率(Warmup Ratio) |
0.02 |
學習率(Learning Rate) |
6e - 5 |
嵌入學習率(Embedding Learning Rate) |
1e - 5 |
優化器(Optimizer) |
grokadamw |
學習率調度(LR Schedule) |
餘弦(cosine) |
權重衰減(Weight Decay) |
0.01 |
訓練損失(Train Loss) |
0.42 |
🔧 技術細節
文檔未提供足夠的技術實現細節,暫不展示。
📄 許可證
文檔未提供許可證信息,暫不展示。
⚠️ 重要提示
雖然此版本的翻譯更準確,但與之前的版本相比,譯文更傾向於直譯。
💡 使用建議
為獲得最佳準確性,建議將溫度設置為0。