🚀 基於LLaMA 3 Youko的日語視覺小說翻譯微調模型
這是一個基於LLaMA 3 Youko的QLoRA微調模型,使用新版VNTL數據集創建。該微調的目的是提升大語言模型將日語視覺小說翻譯成英語的性能。
🚀 快速開始
本模型是基於LLaMA 3 Youko的微調版本,使用新版VNTL數據集進行訓練,旨在提升日語視覺小說到英語的翻譯性能。與之前版本不同,此版本不包含“聊天模式”。
✨ 主要特性
- 性能提升:全新構建和擴展了VNTL數據集,在準確性和穩定性方面優於之前版本,即使在高溫參數下運行,錯誤也大幅減少。
- 格式調整:切換到默認的LLaMA 3提示格式,解決了自定義格式帶來的使用困擾。
- 多行翻譯支持:增加了對多行翻譯的支持,而舊版本僅能處理單行翻譯。
- 翻譯準確性提升:整體翻譯準確性更高,但與之前版本相比,翻譯結果更傾向於直譯。
📦 安裝指南
文檔未提供安裝步驟,故跳過此章節。
💻 使用示例
基礎用法
此微調模型使用LLaMA 3提示格式,以下是一個翻譯提示示例:
<|begin_of_text|><|start_header_id|>Metadata<|end_header_id|>
[character] Name: Uryuu Shingo (瓜生 新吾) | Gender: Male | Aliases: Onii-chan (お兄ちゃん)
[character] Name: Uryuu Sakuno (瓜生 桜乃) | Gender: Female<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[桜乃]: 『……ごめん』<|eot_id|><|start_header_id|>English<|end_header_id|>
[Sakuno]: 『... Sorry.』<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[新吾]: 「ううん、こう言っちゃなんだけど、迷子でよかったよ。桜乃は可愛いから、いろいろ心配しちゃってたんだぞ俺」<|eot_id|><|start_header_id|>English<|end_header_id|>
[Shingo]: "Nah, I know it’s weird to say this, but I’m glad you got lost. You’re so cute, Sakuno, so I was really worried about you."<|eot_id|>
使用溫度參數為0時,該提示生成的翻譯結果為:
[Shingo]: "Nah, I know it’s weird to say this, but I’m glad you got lost. You’re so cute, Sakuno, so I was really worried about you."
高級用法
元數據部分不僅限於角色信息,還可以添加瑣事信息,並教導模型正確發音較難的單詞。以下是一個示例:
<|begin_of_text|><|start_header_id|>Metadata<|end_header_id|>
[character] Name: Uryuu Shingo (瓜生 新吾) | Gender: Male | Aliases: Onii-chan (お兄ちゃん)
[character] Name: Uryuu Sakuno (瓜生 桜乃) | Gender: Female
[element] Name: Murasamemaru (叢雨丸) | Type: Quality<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[桜乃]: 『……ごめん』<|eot_id|><|start_header_id|>English<|end_header_id|>
[Sakuno]: 『... Sorry.』<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[新吾]: 「ううん、こう言っちゃなんだけど、迷子でよかったよ。桜乃は叢雨丸いから、いろいろ心配しちゃってたんだぞ俺」<|eot_id|><|start_header_id|>English<|end_header_id|>
使用溫度參數為0時,該提示生成的翻譯結果為:
[Shingo]: "Nah, I know it’s not the best thing to say, but I’m glad you got lost. Sakuno’s Murasamemaru, so I was really worried about you, you know?"
📚 詳細文檔
注意事項
對於新版的VNTL 8B,重新構建並擴展了VNTL數據集,在準確性和穩定性方面表現出色,即使在高溫參數下運行,錯誤也大幅減少(不過為獲得最佳準確性,仍建議使用溫度參數0)。此版本的一些主要變化包括:
- 切換到默認的LLaMA 3提示格式,解決了自定義格式帶來的使用困擾。
- 增加了對多行翻譯的支持,而舊版本僅能處理單行翻譯。
- 整體翻譯準確性更高,但與之前版本相比,翻譯結果更傾向於直譯。
採樣建議
為獲得最佳結果,強烈建議在使用此模型時使用中性採樣參數(溫度0,無重複懲罰)。
🔧 技術細節
訓練詳情
此微調使用了與之前版本相似的超參數,唯一的區別是使用了全新的數據集。
屬性 |
詳情 |
模型類型 |
基於LLaMA 3 Youko的QLoRA微調模型 |
訓練數據 |
lmg-anon/VNTL-v5-1k |
Rank |
128 |
Alpha |
32 |
有效批量大小 |
45 |
熱身比率 |
0.02 |
學習率 |
6e - 5 |
嵌入學習率 |
1e - 5 |
優化器 |
grokadamw |
學習率調度 |
餘弦 |
權重衰減 |
0.01 |
訓練損失 |
0.42 |
📄 許可證
本模型使用的許可證為:llama3