🚀 EraX-Translator-V1.0 翻译模型
EraX-Translator-V1.0 是一款支持多语言翻译的模型,涵盖越南语、英语、俄语等多种语言,可满足不同场景下的翻译需求。
🚀 快速开始
若你不确定如何使用 GGUF 文件,请参考 TheBloke 的 README 获取更多详细信息,包括如何拼接多部分文件。
✨ 主要特性
- 多语言支持:支持越南语(vi)、英语(en)、俄语(ru)、法语(fr)、中文(zh)、粤语(yue)、德语(de)、日语(ja)、韩语(ko)、印地语(hi)、乌克兰语(uk)等多种语言。
- 多标签适用:适用于越南语翻译、多语言处理、低资源语言处理、古汉语及佛教文本翻译等场景。
📦 模型信息
属性 |
详情 |
基础模型 |
erax-ai/EraX-Translator-V1.0 |
支持语言 |
越南语(vi)、英语(en)、俄语(ru)、法语(fr)、中文(zh)、粤语(yue)、德语(de)、日语(ja)、韩语(ko)、印地语(hi)、乌克兰语(uk) |
库名称 |
transformers |
许可证 |
gemma |
量化者 |
mradermacher |
标签 |
越南语、翻译、多语言、gemma、低资源、古汉语、佛教文本、llama.cpp、vllm |
📚 详细文档
关于模型
加权/矩阵量化的 https://huggingface.co/erax-ai/EraX-Translator-V1.0 模型。静态量化文件可在 https://huggingface.co/mradermacher/EraX-Translator-V1.0-GGUF 获取。
提供的量化文件
(按大小排序,不一定按质量排序。IQ 量化通常优于类似大小的非 IQ 量化)
链接 |
类型 |
大小/GB |
说明 |
GGUF |
i1-IQ1_S |
1.2 |
适用于急需的情况 |
GGUF |
i1-IQ1_M |
1.3 |
大多用于急需情况 |
GGUF |
i1-IQ2_XXS |
1.4 |
|
GGUF |
i1-IQ2_XS |
1.5 |
|
GGUF |
i1-IQ2_S |
1.5 |
|
GGUF |
i1-IQ2_M |
1.6 |
|
GGUF |
i1-Q2_K_S |
1.7 |
质量非常低 |
GGUF |
i1-IQ3_XXS |
1.8 |
质量较低 |
GGUF |
i1-Q2_K |
1.8 |
IQ3_XXS 可能更好 |
GGUF |
i1-IQ3_XS |
2.0 |
|
GGUF |
i1-IQ3_S |
2.0 |
优于 Q3_K* |
GGUF |
i1-Q3_K_S |
2.0 |
IQ3_XS 可能更好 |
GGUF |
i1-IQ3_M |
2.1 |
|
GGUF |
i1-Q3_K_M |
2.2 |
IQ3_S 可能更好 |
GGUF |
i1-Q3_K_L |
2.3 |
IQ3_M 可能更好 |
GGUF |
i1-IQ4_XS |
2.4 |
|
GGUF |
i1-IQ4_NL |
2.5 |
优先选择 IQ4_XS |
GGUF |
i1-Q4_0 |
2.5 |
速度快,质量低 |
GGUF |
i1-Q4_K_S |
2.5 |
大小/速度/质量最优 |
GGUF |
i1-Q4_K_M |
2.6 |
速度快,推荐使用 |
GGUF |
i1-Q4_1 |
2.7 |
|
GGUF |
i1-Q5_K_S |
2.9 |
|
GGUF |
i1-Q5_K_M |
2.9 |
|
GGUF |
i1-Q6_K |
3.3 |
实际上类似于静态 Q6_K |
以下是 ikawrakow 制作的一张方便的图表,比较了一些低质量量化类型(数值越低越好):

此外,Artefact2 对此事的看法可参考:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常见问题与模型请求
若你有相关问题或希望对其他模型进行量化,请参考 模型请求页面 获取答案。
📄 许可证
本模型使用 gemma 许可证。
🙏 致谢
感谢我的公司 nethype GmbH 允许我使用其服务器,并对我的工作站进行升级,使我能够在业余时间完成这项工作。此外,感谢 @nicoboss 让我使用他的私人超级计算机,使我能够提供更多、质量更高的矩阵量化文件。