🚀 EraX-Translator-V1.0 翻譯模型
EraX-Translator-V1.0 是一款支持多語言翻譯的模型,涵蓋越南語、英語、俄語等多種語言,可滿足不同場景下的翻譯需求。
🚀 快速開始
若你不確定如何使用 GGUF 文件,請參考 TheBloke 的 README 獲取更多詳細信息,包括如何拼接多部分文件。
✨ 主要特性
- 多語言支持:支持越南語(vi)、英語(en)、俄語(ru)、法語(fr)、中文(zh)、粵語(yue)、德語(de)、日語(ja)、韓語(ko)、印地語(hi)、烏克蘭語(uk)等多種語言。
- 多標籤適用:適用於越南語翻譯、多語言處理、低資源語言處理、古漢語及佛教文本翻譯等場景。
📦 模型信息
屬性 |
詳情 |
基礎模型 |
erax-ai/EraX-Translator-V1.0 |
支持語言 |
越南語(vi)、英語(en)、俄語(ru)、法語(fr)、中文(zh)、粵語(yue)、德語(de)、日語(ja)、韓語(ko)、印地語(hi)、烏克蘭語(uk) |
庫名稱 |
transformers |
許可證 |
gemma |
量化者 |
mradermacher |
標籤 |
越南語、翻譯、多語言、gemma、低資源、古漢語、佛教文本、llama.cpp、vllm |
📚 詳細文檔
關於模型
加權/矩陣量化的 https://huggingface.co/erax-ai/EraX-Translator-V1.0 模型。靜態量化文件可在 https://huggingface.co/mradermacher/EraX-Translator-V1.0-GGUF 獲取。
提供的量化文件
(按大小排序,不一定按質量排序。IQ 量化通常優於類似大小的非 IQ 量化)
鏈接 |
類型 |
大小/GB |
說明 |
GGUF |
i1-IQ1_S |
1.2 |
適用於急需的情況 |
GGUF |
i1-IQ1_M |
1.3 |
大多用於急需情況 |
GGUF |
i1-IQ2_XXS |
1.4 |
|
GGUF |
i1-IQ2_XS |
1.5 |
|
GGUF |
i1-IQ2_S |
1.5 |
|
GGUF |
i1-IQ2_M |
1.6 |
|
GGUF |
i1-Q2_K_S |
1.7 |
質量非常低 |
GGUF |
i1-IQ3_XXS |
1.8 |
質量較低 |
GGUF |
i1-Q2_K |
1.8 |
IQ3_XXS 可能更好 |
GGUF |
i1-IQ3_XS |
2.0 |
|
GGUF |
i1-IQ3_S |
2.0 |
優於 Q3_K* |
GGUF |
i1-Q3_K_S |
2.0 |
IQ3_XS 可能更好 |
GGUF |
i1-IQ3_M |
2.1 |
|
GGUF |
i1-Q3_K_M |
2.2 |
IQ3_S 可能更好 |
GGUF |
i1-Q3_K_L |
2.3 |
IQ3_M 可能更好 |
GGUF |
i1-IQ4_XS |
2.4 |
|
GGUF |
i1-IQ4_NL |
2.5 |
優先選擇 IQ4_XS |
GGUF |
i1-Q4_0 |
2.5 |
速度快,質量低 |
GGUF |
i1-Q4_K_S |
2.5 |
大小/速度/質量最優 |
GGUF |
i1-Q4_K_M |
2.6 |
速度快,推薦使用 |
GGUF |
i1-Q4_1 |
2.7 |
|
GGUF |
i1-Q5_K_S |
2.9 |
|
GGUF |
i1-Q5_K_M |
2.9 |
|
GGUF |
i1-Q6_K |
3.3 |
實際上類似於靜態 Q6_K |
以下是 ikawrakow 製作的一張方便的圖表,比較了一些低質量量化類型(數值越低越好):

此外,Artefact2 對此事的看法可參考:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常見問題與模型請求
若你有相關問題或希望對其他模型進行量化,請參考 模型請求頁面 獲取答案。
📄 許可證
本模型使用 gemma 許可證。
🙏 致謝
感謝我的公司 nethype GmbH 允許我使用其服務器,並對我的工作站進行升級,使我能夠在業餘時間完成這項工作。此外,感謝 @nicoboss 讓我使用他的私人超級計算機,使我能夠提供更多、質量更高的矩陣量化文件。