🚀 mT5_base_eng_yor_mt
mT5_base_eng_yor_mt是一個基於微調mT5-base模型的機器翻譯模型,可實現從英語到約魯巴語的自動翻譯,為該翻譯任務建立了強大的基線。
🚀 快速開始
你可以使用Transformers庫的pipeline
來使用這個模型進行機器翻譯。以下是使用示例:
from transformers import MT5ForConditionalGeneration, T5Tokenizer
model = MT5ForConditionalGeneration.from_pretrained("Davlan/mt5_base_eng_yor_mt")
tokenizer = T5Tokenizer.from_pretrained("google/mt5-base")
input_string = "Where are you?"
inputs = tokenizer.encode(input_string, return_tensors="pt")
generated_tokens = model.generate(inputs)
results = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(results)
✨ 主要特性
- 基於微調的mT5-base模型,為英語到約魯巴語的翻譯建立了強大基線。
- 可使用Transformers庫的
pipeline
方便地進行調用。
📦 安裝指南
文檔未提供具體安裝步驟,故跳過該章節。
💻 使用示例
基礎用法
from transformers import MT5ForConditionalGeneration, T5Tokenizer
model = MT5ForConditionalGeneration.from_pretrained("Davlan/mt5_base_eng_yor_mt")
tokenizer = T5Tokenizer.from_pretrained("google/mt5-base")
input_string = "Where are you?"
inputs = tokenizer.encode(input_string, return_tensors="pt")
generated_tokens = model.generate(inputs)
results = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(results)
📚 詳細文檔
模型描述
mT5_base_yor_eng_mt是一個基於微調mT5-base模型的機器翻譯模型,用於將英語文本自動翻譯成約魯巴語。具體而言,該模型是在JW300約魯巴語語料庫和Menyo-20k數據集上進行微調的mT5_base模型。
預期用途和侷限性
預期用途
可用於英語到約魯巴語的機器翻譯任務。
侷限性和偏差
該模型受其訓練數據集的限制,訓練數據為特定時間段內帶有實體註釋的新聞文章。因此,它可能無法很好地泛化到不同領域的所有用例。
訓練數據
該模型在JW300語料庫和Menyo-20k數據集上進行了微調。
訓練過程
該模型在單個NVIDIA V100 GPU上進行訓練。
測試集評估結果(BLEU分數)
在Menyo-20k測試集上的BLEU分數為9.82。
BibTeX引用和引用信息
作者:David Adelani
🔧 技術細節
文檔未提供具體技術細節,故跳過該章節。
📄 許可證
文檔未提供許可證信息,故跳過該章節。
屬性 |
詳情 |
支持語言 |
約魯巴語(yo)、英語(en) |
訓練數據 |
JW300語料庫和Menyo-20k數據集 |
⚠️ 重要提示
該模型受其訓練數據集的限制,可能無法很好地泛化到不同領域的所有用例。
💡 使用建議
在使用該模型進行翻譯時,可根據具體的應用場景和需求,對模型進行進一步的微調或優化。