🚀 bert2bert_L - 24_wmt_en_de 编码器 - 解码器模型
该模型是一个用于英德翻译的编码器 - 解码器模型,解决了英德语言之间的翻译问题,为语言交流提供了有效的工具。它基于 bert-large
检查点进行初始化,并在 WMT 数据集上进行微调,具有较高的翻译准确性和实用性。
🚀 快速开始
此模型可用于英德翻译。您可以按照以下步骤使用:
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("google/bert2bert_L-24_wmt_en_de", pad_token="<pad>", eos_token="</s>", bos_token="<s>")
model = AutoModelForSeq2SeqLM.from_pretrained("google/bert2bert_L-24_wmt_en_de")
sentence = "Would you like to grab a coffee with me this week?"
input_ids = tokenizer(sentence, return_tensors="pt", add_special_tokens=False).input_ids
output_ids = model.generate(input_ids)[0]
print(tokenizer.decode(output_ids, skip_special_tokens=True))
💻 使用示例
基础用法
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("google/bert2bert_L-24_wmt_en_de", pad_token="<pad>", eos_token="</s>", bos_token="<s>")
model = AutoModelForSeq2SeqLM.from_pretrained("google/bert2bert_L-24_wmt_en_de")
sentence = "Would you like to grab a coffee with me this week?"
input_ids = tokenizer(sentence, return_tensors="pt", add_special_tokens=False).input_ids
output_ids = model.generate(input_ids)[0]
print(tokenizer.decode(output_ids, skip_special_tokens=True))
📚 详细文档
该模型由 Sascha Rothe、Shashi Narayan、Aliaksei Severyn 在 这篇论文 中提出,并首次在 这个仓库 中发布。它是一个编码器 - 解码器模型,编码器和解码器均在 bert-large
检查点上进行初始化,并在上述链接的 WMT 数据集上针对英德翻译进行了微调。
📄 许可证
本项目采用 Apache - 2.0 许可证。
属性 |
详情 |
支持语言 |
英语、德语 |
数据集 |
WMT14 |
标签 |
翻译 |
许可证 |
Apache - 2.0 |