O

Original Transformer

由 ubaada 开发
基于2017年论文《Attention Is All You Need》中原始Transformer架构的PyTorch实现,专为英德翻译任务训练的6500万参数基础模型
下载量 26
发布时间 : 11/4/2024

模型简介

这是一个定制化的HuggingFace模型移植版本,基于原始Transformer架构实现,主要用于英语到德语的机器翻译任务。

模型特点

原始Transformer实现
严格遵循2017年论文《Attention Is All You Need》中的原始架构设计
英德翻译优化
专门针对英语到德语的翻译任务进行训练和优化
中等规模参数
6500万参数的平衡设计,兼顾性能和效率

模型能力

英语到德语文本翻译
德语到英语文本翻译

使用案例

机器翻译
日常用语翻译
将英语日常用语翻译为德语
例如:'This is my cat' → 'Das ist meine Katze.'
文档翻译
将英语文档翻译为德语版本
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase