🚀 bert2bert_L - 24_wmt_en_de 編碼器 - 解碼器模型
該模型是一個用於英德翻譯的編碼器 - 解碼器模型,解決了英德語言之間的翻譯問題,為語言交流提供了有效的工具。它基於 bert-large
檢查點進行初始化,並在 WMT 數據集上進行微調,具有較高的翻譯準確性和實用性。
🚀 快速開始
此模型可用於英德翻譯。您可以按照以下步驟使用:
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("google/bert2bert_L-24_wmt_en_de", pad_token="<pad>", eos_token="</s>", bos_token="<s>")
model = AutoModelForSeq2SeqLM.from_pretrained("google/bert2bert_L-24_wmt_en_de")
sentence = "Would you like to grab a coffee with me this week?"
input_ids = tokenizer(sentence, return_tensors="pt", add_special_tokens=False).input_ids
output_ids = model.generate(input_ids)[0]
print(tokenizer.decode(output_ids, skip_special_tokens=True))
💻 使用示例
基礎用法
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("google/bert2bert_L-24_wmt_en_de", pad_token="<pad>", eos_token="</s>", bos_token="<s>")
model = AutoModelForSeq2SeqLM.from_pretrained("google/bert2bert_L-24_wmt_en_de")
sentence = "Would you like to grab a coffee with me this week?"
input_ids = tokenizer(sentence, return_tensors="pt", add_special_tokens=False).input_ids
output_ids = model.generate(input_ids)[0]
print(tokenizer.decode(output_ids, skip_special_tokens=True))
📚 詳細文檔
該模型由 Sascha Rothe、Shashi Narayan、Aliaksei Severyn 在 這篇論文 中提出,並首次在 這個倉庫 中發佈。它是一個編碼器 - 解碼器模型,編碼器和解碼器均在 bert-large
檢查點上進行初始化,並在上述鏈接的 WMT 數據集上針對英德翻譯進行了微調。
📄 許可證
本項目採用 Apache - 2.0 許可證。
屬性 |
詳情 |
支持語言 |
英語、德語 |
數據集 |
WMT14 |
標籤 |
翻譯 |
許可證 |
Apache - 2.0 |