T5 Translate En Ru Zh Small 1024
T
T5 Translate En Ru Zh Small 1024
由 utrobinmv 开发
基于T5架构的多语言翻译模型,支持俄语、中文和英语之间的双向互译
下载量 2,405
发布时间 : 1/7/2024
模型简介
采用T5转换器架构的多任务翻译模型,专为俄语、中文和英语之间的机器翻译优化配置,支持六种语言对的互译任务
模型特点
多语言互译
支持俄语、中文和英语三种语言之间的任意双向互译
多任务处理
单一模型处理六种语言对翻译任务,无需切换不同模型
混合内容处理
源文本可包含多语言混合内容,模型能自动识别源语言
模型能力
俄语到中文翻译
中文到俄语翻译
英语到中文翻译
中文到英语翻译
英语到俄语翻译
俄语到英语翻译
使用案例
语言服务
个人同步翻译
为用户提供个性化的同步翻译服务
准确翻译技术文档和日常用语
跨语言交流
多语言内容本地化
帮助企业和个人实现内容的多语言转换
保持原文语义的同时实现自然流畅的翻译
🚀 T5英俄中多语言机器翻译
本模型是一个处于多任务模式下的传统T5变压器模型,用于将文本翻译为所需语言。它经过精确配置,可处理以下语言对的机器翻译:俄-中、中-俄、英-中、中-英、英-俄、俄-英。该模型能够直接在俄语、中文和英语这三种语言的任意组合之间进行翻译。在进行目标语言翻译时,需将目标语言标识符作为前缀 “translate to
🚀 快速开始
安装依赖
要使用这个模型,你需要安装transformers
库。可以使用以下命令进行安装:
pip install transformers
代码示例
从俄语翻译成中文
from transformers import T5ForConditionalGeneration, T5Tokenizer
device = 'cuda' # 或者使用 'cpu' 在CPU上进行翻译
model_name = 'utrobinmv/t5_translate_en_ru_zh_small_1024'
model = T5ForConditionalGeneration.from_pretrained(model_name)
model.to(device)
tokenizer = T5Tokenizer.from_pretrained(model_name)
prefix = 'translate to zh: '
src_text = prefix + "Цель разработки — предоставить пользователям личного синхронного переводчика."
# 从俄语翻译成中文
input_ids = tokenizer(src_text, return_tensors="pt")
generated_tokens = model.generate(**input_ids.to(device))
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(result)
# 开发的目的就是向用户提供个性化的同步翻译。
从中文翻译成俄语
from transformers import T5ForConditionalGeneration, T5Tokenizer
device = 'cuda' # 或者使用 'cpu' 在CPU上进行翻译
model_name = 'utrobinmv/t5_translate_en_ru_zh_small_1024'
model = T5ForConditionalGeneration.from_pretrained(model_name)
model.to(device)
tokenizer = T5Tokenizer.from_pretrained(model_name)
prefix = 'translate to ru: '
src_text = prefix + "开发的目的就是向用户提供个性化的同步翻译。"
# 从俄语翻译成中文
input_ids = tokenizer(src_text, return_tensors="pt")
generated_tokens = model.generate(**input_ids.to(device))
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(result)
# Цель разработки - предоставить персонализированный синхронный перевод для пользователей.
✨ 主要特性
- 多语言支持:该模型支持俄语(ru_RU)、中文(zh_CN)和英语(en_US)之间的直接翻译。
- 灵活翻译:在翻译时,无需指定源语言,源文本也可以是多语言的。只需在源文本前加上目标语言标识符前缀 “translate to
:” 即可。
📦 安装指南
要使用这个模型,你需要安装transformers
库。可以使用以下命令进行安装:
pip install transformers
💻 使用示例
基础用法
以下是一个从俄语翻译成中文的基础示例:
from transformers import T5ForConditionalGeneration, T5Tokenizer
device = 'cuda' # 或者使用 'cpu' 在CPU上进行翻译
model_name = 'utrobinmv/t5_translate_en_ru_zh_small_1024'
model = T5ForConditionalGeneration.from_pretrained(model_name)
model.to(device)
tokenizer = T5Tokenizer.from_pretrained(model_name)
prefix = 'translate to zh: '
src_text = prefix + "Цель разработки — предоставить пользователям личного синхронного переводчика."
# 从俄语翻译成中文
input_ids = tokenizer(src_text, return_tensors="pt")
generated_tokens = model.generate(**input_ids.to(device))
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(result)
# 开发的目的就是向用户提供个性化的同步翻译。
高级用法
你可以根据需要调整模型参数,例如在不同的设备(CPU或GPU)上进行翻译。以下是一个在CPU上进行翻译的示例:
from transformers import T5ForConditionalGeneration, T5Tokenizer
device = 'cpu' # 在CPU上进行翻译
model_name = 'utrobinmv/t5_translate_en_ru_zh_small_1024'
model = T5ForConditionalGeneration.from_pretrained(model_name)
model.to(device)
tokenizer = T5Tokenizer.from_pretrained(model_name)
prefix = 'translate to zh: '
src_text = prefix + "Цель разработки — предоставить пользователям личного синхронного переводчика."
# 从俄语翻译成中文
input_ids = tokenizer(src_text, return_tensors="pt")
generated_tokens = model.generate(**input_ids.to(device))
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(result)
# 开发的目的就是向用户提供个性化的同步翻译。
📚 详细文档
支持的语言对
该模型支持以下语言对的翻译:
- ru-zh:俄语到中文
- zh-ru:中文到俄语
- en-zh:英语到中文
- zh-en:中文到英语
- en-ru:英语到俄语
- ru-en:俄语到英语
翻译前缀
在进行翻译时,需要在源文本前加上目标语言标识符前缀 “translate to
- 翻译成中文:
translate to zh:
- 翻译成俄语:
translate to ru:
- 翻译成英语:
translate to en:
🔧 技术细节
本模型是一个经过精确配置的T5变压器模型,用于多语言机器翻译。它可以直接在俄语、中文和英语之间进行翻译,并且支持多语言源文本。在进行翻译时,模型会根据输入的目标语言标识符前缀生成相应的翻译结果。
📄 许可证
本项目采用Apache 2.0许可证。
📋 模型信息
属性 | 详情 |
---|---|
模型类型 | T5变压器模型 |
训练数据 | ccmatrix |
评估指标 | sacrebleu |
🔍 示例展示
示例标题 | 输入文本 | 输出结果 |
---|---|---|
translate zh-ru | translate to ru: 开发的目的是为用户提供个人同步翻译。 | Цель разработки - предоставить персонализированный синхронный перевод для пользователей. |
translate ru-en | translate to en: Цель разработки — предоставить пользователям личного синхронного переводчика. | The purpose of the development is to provide users with a personal synchronized interpreter. |
translate en-ru | translate to ru: The purpose of the development is to provide users with a personal synchronized interpreter. | Цель разработки — предоставить пользователям личного синхронного переводчика. |
translate en-zh | translate to zh: The purpose of the development is to provide users with a personal synchronized interpreter. | 开发的目的是为用户提供个人同步解释器。 |
translate zh-en | translate to en: 开发的目的是为用户提供个人同步解释器。 | The purpose of the development is to provide users with a personal synchronized interpreter. |
translate ru-zh | translate to zh: Цель разработки — предоставить пользователям личного синхронного переводчика. | 开发的目的就是向用户提供个性化的同步翻译。 |
M2m100 418M
MIT
M2M100是一个多语言编码器-解码器模型,支持100种语言的9900个翻译方向
机器翻译 支持多种语言
M
facebook
1.6M
299
Opus Mt Fr En
Apache-2.0
基于Transformer的法语到英语神经机器翻译模型,由Helsinki-NLP团队开发,采用OPUS多语数据集训练。
机器翻译 支持多种语言
O
Helsinki-NLP
1.2M
44
Opus Mt Ar En
Apache-2.0
基于OPUS数据训练的阿拉伯语到英语的机器翻译模型,采用transformer-align架构
机器翻译 支持多种语言
O
Helsinki-NLP
579.41k
42
M2m100 1.2B
MIT
M2M100是一个支持100种语言的多语言机器翻译模型,可直接在9900个翻译方向之间进行翻译。
机器翻译 支持多种语言
M
facebook
501.82k
167
Indictrans2 Indic En 1B
MIT
支持25种印度语言与英语互译的1.1B参数规模机器翻译模型,由AI4Bharat项目开发
机器翻译
Transformers 支持多种语言

I
ai4bharat
473.63k
14
Opus Mt En Zh
Apache-2.0
基于Transformer架构的英汉多方言翻译模型,支持英语到13种汉语变体的翻译任务
机器翻译 支持多种语言
O
Helsinki-NLP
442.08k
367
Opus Mt Zh En
由赫尔辛基大学开发的基于OPUS语料库的中文到英语机器翻译模型
机器翻译 支持多种语言
O
Helsinki-NLP
441.24k
505
Mbart Large 50 Many To Many Mmt
基于mBART-large-50微调的多语言机器翻译模型,支持50种语言间的互译
机器翻译 支持多种语言
M
facebook
404.66k
357
Opus Mt De En
Apache-2.0
opus-mt-de-en 是一个基于 transformer-align 架构的德语到英语的机器翻译模型,由 Helsinki-NLP 团队开发。
机器翻译 支持多种语言
O
Helsinki-NLP
404.33k
44
Opus Mt Es En
Apache-2.0
这是一个基于Transformer架构的西班牙语到英语的机器翻译模型,由Helsinki-NLP团队开发。
机器翻译
Transformers 支持多种语言

O
Helsinki-NLP
385.40k
71
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98