🚀 基于LLaMA 3 Youko的日语视觉小说翻译微调模型
这是一个基于LLaMA 3 Youko的QLoRA微调模型,使用新版VNTL数据集创建。该微调的目的是提升大语言模型将日语视觉小说翻译成英语的性能。
🚀 快速开始
本模型是基于LLaMA 3 Youko的微调版本,使用新版VNTL数据集进行训练,旨在提升日语视觉小说到英语的翻译性能。与之前版本不同,此版本不包含“聊天模式”。
✨ 主要特性
- 性能提升:全新构建和扩展了VNTL数据集,在准确性和稳定性方面优于之前版本,即使在高温参数下运行,错误也大幅减少。
- 格式调整:切换到默认的LLaMA 3提示格式,解决了自定义格式带来的使用困扰。
- 多行翻译支持:增加了对多行翻译的支持,而旧版本仅能处理单行翻译。
- 翻译准确性提升:整体翻译准确性更高,但与之前版本相比,翻译结果更倾向于直译。
📦 安装指南
文档未提供安装步骤,故跳过此章节。
💻 使用示例
基础用法
此微调模型使用LLaMA 3提示格式,以下是一个翻译提示示例:
<|begin_of_text|><|start_header_id|>Metadata<|end_header_id|>
[character] Name: Uryuu Shingo (瓜生 新吾) | Gender: Male | Aliases: Onii-chan (お兄ちゃん)
[character] Name: Uryuu Sakuno (瓜生 桜乃) | Gender: Female<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[桜乃]: 『……ごめん』<|eot_id|><|start_header_id|>English<|end_header_id|>
[Sakuno]: 『... Sorry.』<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[新吾]: 「ううん、こう言っちゃなんだけど、迷子でよかったよ。桜乃は可愛いから、いろいろ心配しちゃってたんだぞ俺」<|eot_id|><|start_header_id|>English<|end_header_id|>
[Shingo]: "Nah, I know it’s weird to say this, but I’m glad you got lost. You’re so cute, Sakuno, so I was really worried about you."<|eot_id|>
使用温度参数为0时,该提示生成的翻译结果为:
[Shingo]: "Nah, I know it’s weird to say this, but I’m glad you got lost. You’re so cute, Sakuno, so I was really worried about you."
高级用法
元数据部分不仅限于角色信息,还可以添加琐事信息,并教导模型正确发音较难的单词。以下是一个示例:
<|begin_of_text|><|start_header_id|>Metadata<|end_header_id|>
[character] Name: Uryuu Shingo (瓜生 新吾) | Gender: Male | Aliases: Onii-chan (お兄ちゃん)
[character] Name: Uryuu Sakuno (瓜生 桜乃) | Gender: Female
[element] Name: Murasamemaru (叢雨丸) | Type: Quality<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[桜乃]: 『……ごめん』<|eot_id|><|start_header_id|>English<|end_header_id|>
[Sakuno]: 『... Sorry.』<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[新吾]: 「ううん、こう言っちゃなんだけど、迷子でよかったよ。桜乃は叢雨丸いから、いろいろ心配しちゃってたんだぞ俺」<|eot_id|><|start_header_id|>English<|end_header_id|>
使用温度参数为0时,该提示生成的翻译结果为:
[Shingo]: "Nah, I know it’s not the best thing to say, but I’m glad you got lost. Sakuno’s Murasamemaru, so I was really worried about you, you know?"
📚 详细文档
注意事项
对于新版的VNTL 8B,重新构建并扩展了VNTL数据集,在准确性和稳定性方面表现出色,即使在高温参数下运行,错误也大幅减少(不过为获得最佳准确性,仍建议使用温度参数0)。此版本的一些主要变化包括:
- 切换到默认的LLaMA 3提示格式,解决了自定义格式带来的使用困扰。
- 增加了对多行翻译的支持,而旧版本仅能处理单行翻译。
- 整体翻译准确性更高,但与之前版本相比,翻译结果更倾向于直译。
采样建议
为获得最佳结果,强烈建议在使用此模型时使用中性采样参数(温度0,无重复惩罚)。
🔧 技术细节
训练详情
此微调使用了与之前版本相似的超参数,唯一的区别是使用了全新的数据集。
属性 |
详情 |
模型类型 |
基于LLaMA 3 Youko的QLoRA微调模型 |
训练数据 |
lmg-anon/VNTL-v5-1k |
Rank |
128 |
Alpha |
32 |
有效批量大小 |
45 |
热身比率 |
0.02 |
学习率 |
6e - 5 |
嵌入学习率 |
1e - 5 |
优化器 |
grokadamw |
学习率调度 |
余弦 |
权重衰减 |
0.01 |
训练损失 |
0.42 |
📄 许可证
本模型使用的许可证为:llama3