🚀 英語到印地式英語翻譯模型
本模型專注於英語到印地式英語的翻譯,通過將特定的LoRA訓練成果與llama2 - 7b和OPENHATHI - 7B - BASE進行融合,顯著提升了翻譯效果,為相關領域的應用提供了有力支持。
🚀 快速開始
你可以使用以下代碼示例,快速開啟英語到印地式英語的翻譯:
from transformers import LlamaForCausalLM, AutoTokenizer
import torch
device = "cuda:0"
tokenizer = AutoTokenizer.from_pretrained('akashgoel-id/OpenHathi-7B-English-to-Hinglish')
model = LlamaForCausalLM.from_pretrained('akashgoel-id/OpenHathi-7B-English-to-Hinglish', torch_dtype=torch.bfloat16).to(device)
PROMPT_TEMPLATE = (
f"Translate from english to hinglish:\n{{en}}\n---\nTranslation:\n"
)
while True:
userInput = input("Enter input: ")
prompt = PROMPT_TEMPLATE.format(en=userInput)
inputs = tokenizer(prompt, return_tensors="pt").to(device)
generate_ids = model.generate(inputs.input_ids, max_length=500)
print(tokenizer.batch_decode(generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)[0])
✨ 主要特性
- 模型融合優勢:該模型是在英語到印地式英語翻譯數據集上,由NATERAW在llama2 - 7b上訓練的LoRA與OPENHATHI - 7B - BASE進行融合的成果。由於OPENHATHI在預訓練時包含更多印地語數據,相較於llama2,其翻譯效果有顯著提升。
- 特定提示模板:可使用nateraw提供的提示模板
"Translate from english to hinglish:\n{{en}}\n---\nTranslation:\n"
進行翻譯操作。
📚 詳細文檔
模型詳情
這是一個將NATERAW在英語到印地式英語翻譯數據集上對llama2 - 7b訓練的LoRA與OPENHATHI - 7B - BASE進行融合的模型。由於OPENHATHI在預訓練時包含更多印地語數據,相較於llama2,其翻譯效果有顯著提升。
提示模板
你可以使用nateraw提供的提示模板:
"Translate from english to hinglish:\n{{en}}\n---\nTranslation:\n"
侷限性
該模型在處理習語時仍存在一定不足:
輸入習語 |
模型輸出翻譯 |
評估 |
When it rains, it pours |
Jab baarish hoti hai, to baarish hoti hai |
此翻譯過於字面,未體現習語含義。原短語意味著當某事發生時,往往會發展到極端程度。而提供的翻譯只是簡單表述“下雨的時候,就下雨”,未抓住習語精髓。 |
Don't count your chickens before they hatch |
Apne murgon ko ande se pahle na ginein |
這是對該習語較為合理的翻譯,保留了關於不要基於不確定未來事件的假設來制定計劃的隱喻含義。 |
Biting off more than you can chew |
Aap jo chaba sakte hain usse adhik kaatna |
此翻譯捕捉到了咬和咀嚼的字面意思,但可能未完全傳達承擔一項過大或難以處理的任務的習語含義。 |
The ball is in your court |
Gend aapke court mein hai |
此翻譯有效傳達了習語的含義,即輪到別人做決定或採取行動。 |
Beating around the bush |
Bush ke chaaron or peetna |
這是一個字面翻譯,未準確捕捉到避免主要問題或不直接談論某個主題的習語含義。“Ghumaphira ke baat karna” 會更合適。 |
下一步計劃
- 減少審查:鑑於模型使用了llama2,似乎存在高度審查情況。下一步計劃是通過在更多未審查數據上進行微調來減少部分審查(類似於WizardLM對llama2所做的)。
- 習語微調:在習語上進行微調,以提升模型對習語的處理能力。