🚀 mT5_base_eng_yor_mt
mT5_base_eng_yor_mt是一个基于微调mT5-base模型的机器翻译模型,可实现从英语到约鲁巴语的自动翻译,为该翻译任务建立了强大的基线。
🚀 快速开始
你可以使用Transformers库的pipeline
来使用这个模型进行机器翻译。以下是使用示例:
from transformers import MT5ForConditionalGeneration, T5Tokenizer
model = MT5ForConditionalGeneration.from_pretrained("Davlan/mt5_base_eng_yor_mt")
tokenizer = T5Tokenizer.from_pretrained("google/mt5-base")
input_string = "Where are you?"
inputs = tokenizer.encode(input_string, return_tensors="pt")
generated_tokens = model.generate(inputs)
results = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(results)
✨ 主要特性
- 基于微调的mT5-base模型,为英语到约鲁巴语的翻译建立了强大基线。
- 可使用Transformers库的
pipeline
方便地进行调用。
📦 安装指南
文档未提供具体安装步骤,故跳过该章节。
💻 使用示例
基础用法
from transformers import MT5ForConditionalGeneration, T5Tokenizer
model = MT5ForConditionalGeneration.from_pretrained("Davlan/mt5_base_eng_yor_mt")
tokenizer = T5Tokenizer.from_pretrained("google/mt5-base")
input_string = "Where are you?"
inputs = tokenizer.encode(input_string, return_tensors="pt")
generated_tokens = model.generate(inputs)
results = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(results)
📚 详细文档
模型描述
mT5_base_yor_eng_mt是一个基于微调mT5-base模型的机器翻译模型,用于将英语文本自动翻译成约鲁巴语。具体而言,该模型是在JW300约鲁巴语语料库和Menyo-20k数据集上进行微调的mT5_base模型。
预期用途和局限性
预期用途
可用于英语到约鲁巴语的机器翻译任务。
局限性和偏差
该模型受其训练数据集的限制,训练数据为特定时间段内带有实体注释的新闻文章。因此,它可能无法很好地泛化到不同领域的所有用例。
训练数据
该模型在JW300语料库和Menyo-20k数据集上进行了微调。
训练过程
该模型在单个NVIDIA V100 GPU上进行训练。
测试集评估结果(BLEU分数)
在Menyo-20k测试集上的BLEU分数为9.82。
BibTeX引用和引用信息
作者:David Adelani
🔧 技术细节
文档未提供具体技术细节,故跳过该章节。
📄 许可证
文档未提供许可证信息,故跳过该章节。
属性 |
详情 |
支持语言 |
约鲁巴语(yo)、英语(en) |
训练数据 |
JW300语料库和Menyo-20k数据集 |
⚠️ 重要提示
该模型受其训练数据集的限制,可能无法很好地泛化到不同领域的所有用例。
💡 使用建议
在使用该模型进行翻译时,可根据具体的应用场景和需求,对模型进行进一步的微调或优化。