O

Original Transformer

由ubaada開發
基於2017年論文《Attention Is All You Need》中原始Transformer架構的PyTorch實現,專為英德翻譯任務訓練的6500萬參數基礎模型
下載量 26
發布時間 : 11/4/2024

模型概述

這是一個定製化的HuggingFace模型移植版本,基於原始Transformer架構實現,主要用於英語到德語的機器翻譯任務。

模型特點

原始Transformer實現
嚴格遵循2017年論文《Attention Is All You Need》中的原始架構設計
英德翻譯優化
專門針對英語到德語的翻譯任務進行訓練和優化
中等規模參數
6500萬參數的平衡設計,兼顧性能和效率

模型能力

英語到德語文本翻譯
德語到英語文本翻譯

使用案例

機器翻譯
日常用語翻譯
將英語日常用語翻譯為德語
例如:'This is my cat' → 'Das ist meine Katze.'
文檔翻譯
將英語文檔翻譯為德語版本
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase