🚀 基于lmg - anon/vntl - llama3 - 8b - v2 - hf的日语视觉小说英译微调模型
本项目是一个基于特定模型的微调项目,旨在提升大语言模型将日语视觉小说翻译成英语的性能。通过使用新版的VNTL数据集进行微调,在准确性和稳定性方面有显著提升。
🚀 快速开始
本项目是对 LLaMA 3 Youko 进行的QLoRA微调,使用了新版的VNTL数据集。其目的是提高大语言模型将日语视觉小说翻译成英语的性能。与之前的版本不同,此版本不包含“聊天模式”。
✨ 主要特性
- 性能提升:重新构建并扩展了VNTL数据集,在准确性和稳定性方面优于之前的版本,即使在高温设置下也能减少错误(不过为获得最佳准确性,仍建议温度设置为0)。
- 格式调整:切换到默认的LLaMA3提示格式,解决了之前自定义格式带来的使用问题。
- 多行支持:增加了对多行翻译的适当支持,而旧版本仅处理单行翻译。
- 精度优化:整体翻译准确性更高,但译文相较于之前版本更倾向于直译。
📦 安装指南
文档未提供安装步骤,暂不展示。
💻 使用示例
基础用法
本微调使用LLaMA 3提示格式,以下是一个翻译的提示示例:
<|begin_of_text|><|start_header_id|>Metadata<|end_header_id|>
[character] Name: Uryuu Shingo (瓜生 新吾) | Gender: Male | Aliases: Onii-chan (お兄ちゃん)
[character] Name: Uryuu Sakuno (瓜生 桜乃) | Gender: Female<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[桜乃]: 『……ごめん』<|eot_id|><|start_header_id|>English<|end_header_id|>
[Sakuno]: 『... Sorry.』<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[新吾]: 「ううん、こう言っちゃなんだけど、迷子でよかったよ。桜乃は可愛いから、いろいろ心配しちゃってたんだぞ俺」<|eot_id|><|start_header_id|>English<|end_header_id|>
[Shingo]: "Nah, I know it’s weird to say this, but I’m glad you got lost. You’re so cute, Sakuno, so I was really worried about you."<|eot_id|>
该提示在温度为0时生成的翻译为:
[Shingo]: "Nah, I know it’s weird to say this, but I’m glad you got lost. You’re so cute, Sakuno, so I was really worried about you."
高级用法
元数据部分不仅限于角色信息,你还可以添加琐事信息,并教导模型正确发音它难以处理的单词。以下是一个示例:
<|begin_of_text|><|start_header_id|>Metadata<|end_header_id|>
[character] Name: Uryuu Shingo (瓜生 新吾) | Gender: Male | Aliases: Onii-chan (お兄ちゃん)
[character] Name: Uryuu Sakuno (瓜生 桜乃) | Gender: Female
[element] Name: Murasamemaru (叢雨丸) | Type: Quality<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[桜乃]: 『……ごめん』<|eot_id|><|start_header_id|>English<|end_header_id|>
[Sakuno]: 『... Sorry.』<|eot_id|><|start_header_id|>Japanese<|end_header_id|>
[新吾]: 「ううん、こう言っちゃなんだけど、迷子でよかったよ。桜乃は叢雨丸いから、いろいろ心配しちゃってたんだぞ俺」<|eot_id|><|start_header_id|>English<|end_header_id|>
该提示在温度为0时生成的翻译为:
[Shingo]: "Nah, I know it’s not the best thing to say, but I’m glad you got lost. Sakuno’s Murasamemaru, so I was really worried about you, you know?"
📚 详细文档
采样建议
为获得最佳结果,使用此模型时强烈建议使用中性采样参数(温度为0且无重复惩罚)。
训练细节
本次微调使用的超参数与 之前的版本 相似,唯一的区别是使用了全新的数据集。
属性 |
详情 |
秩(Rank) |
128 |
阿尔法(Alpha) |
32 |
有效批量大小(Effective Batch Size) |
45 |
热身比率(Warmup Ratio) |
0.02 |
学习率(Learning Rate) |
6e - 5 |
嵌入学习率(Embedding Learning Rate) |
1e - 5 |
优化器(Optimizer) |
grokadamw |
学习率调度(LR Schedule) |
余弦(cosine) |
权重衰减(Weight Decay) |
0.01 |
训练损失(Train Loss) |
0.42 |
🔧 技术细节
文档未提供足够的技术实现细节,暂不展示。
📄 许可证
文档未提供许可证信息,暂不展示。
⚠️ 重要提示
虽然此版本的翻译更准确,但与之前的版本相比,译文更倾向于直译。
💡 使用建议
为获得最佳准确性,建议将温度设置为0。