T5 Translate En Ru Zh Small 1024
T
T5 Translate En Ru Zh Small 1024
由utrobinmv開發
基於T5架構的多語言翻譯模型,支持俄語、中文和英語之間的雙向互譯
下載量 2,405
發布時間 : 1/7/2024
模型概述
採用T5轉換器架構的多任務翻譯模型,專為俄語、中文和英語之間的機器翻譯優化配置,支持六種語言對的互譯任務
模型特點
多語言互譯
支持俄語、中文和英語三種語言之間的任意雙向互譯
多任務處理
單一模型處理六種語言對翻譯任務,無需切換不同模型
混合內容處理
源文本可包含多語言混合內容,模型能自動識別源語言
模型能力
俄語到中文翻譯
中文到俄語翻譯
英語到中文翻譯
中文到英語翻譯
英語到俄語翻譯
俄語到英語翻譯
使用案例
語言服務
個人同步翻譯
為用戶提供個性化的同步翻譯服務
準確翻譯技術文檔和日常用語
跨語言交流
多語言內容本地化
幫助企業和個人實現內容的多語言轉換
保持原文語義的同時實現自然流暢的翻譯
🚀 T5英俄中多語言機器翻譯
本模型是一個處於多任務模式下的傳統T5變壓器模型,用於將文本翻譯為所需語言。它經過精確配置,可處理以下語言對的機器翻譯:俄-中、中-俄、英-中、中-英、英-俄、俄-英。該模型能夠直接在俄語、中文和英語這三種語言的任意組合之間進行翻譯。在進行目標語言翻譯時,需將目標語言標識符作為前綴 “translate to
🚀 快速開始
安裝依賴
要使用這個模型,你需要安裝transformers
庫。可以使用以下命令進行安裝:
pip install transformers
代碼示例
從俄語翻譯成中文
from transformers import T5ForConditionalGeneration, T5Tokenizer
device = 'cuda' # 或者使用 'cpu' 在CPU上進行翻譯
model_name = 'utrobinmv/t5_translate_en_ru_zh_small_1024'
model = T5ForConditionalGeneration.from_pretrained(model_name)
model.to(device)
tokenizer = T5Tokenizer.from_pretrained(model_name)
prefix = 'translate to zh: '
src_text = prefix + "Цель разработки — предоставить пользователям личного синхронного переводчика."
# 從俄語翻譯成中文
input_ids = tokenizer(src_text, return_tensors="pt")
generated_tokens = model.generate(**input_ids.to(device))
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(result)
# 開發的目的就是向用戶提供個性化的同步翻譯。
從中文翻譯成俄語
from transformers import T5ForConditionalGeneration, T5Tokenizer
device = 'cuda' # 或者使用 'cpu' 在CPU上進行翻譯
model_name = 'utrobinmv/t5_translate_en_ru_zh_small_1024'
model = T5ForConditionalGeneration.from_pretrained(model_name)
model.to(device)
tokenizer = T5Tokenizer.from_pretrained(model_name)
prefix = 'translate to ru: '
src_text = prefix + "開發的目的就是向用戶提供個性化的同步翻譯。"
# 從俄語翻譯成中文
input_ids = tokenizer(src_text, return_tensors="pt")
generated_tokens = model.generate(**input_ids.to(device))
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(result)
# Цель разработки - предоставить персонализированный синхронный перевод для пользователей.
✨ 主要特性
- 多語言支持:該模型支持俄語(ru_RU)、中文(zh_CN)和英語(en_US)之間的直接翻譯。
- 靈活翻譯:在翻譯時,無需指定源語言,源文本也可以是多語言的。只需在源文本前加上目標語言標識符前綴 “translate to
:” 即可。
📦 安裝指南
要使用這個模型,你需要安裝transformers
庫。可以使用以下命令進行安裝:
pip install transformers
💻 使用示例
基礎用法
以下是一個從俄語翻譯成中文的基礎示例:
from transformers import T5ForConditionalGeneration, T5Tokenizer
device = 'cuda' # 或者使用 'cpu' 在CPU上進行翻譯
model_name = 'utrobinmv/t5_translate_en_ru_zh_small_1024'
model = T5ForConditionalGeneration.from_pretrained(model_name)
model.to(device)
tokenizer = T5Tokenizer.from_pretrained(model_name)
prefix = 'translate to zh: '
src_text = prefix + "Цель разработки — предоставить пользователям личного синхронного переводчика."
# 從俄語翻譯成中文
input_ids = tokenizer(src_text, return_tensors="pt")
generated_tokens = model.generate(**input_ids.to(device))
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(result)
# 開發的目的就是向用戶提供個性化的同步翻譯。
高級用法
你可以根據需要調整模型參數,例如在不同的設備(CPU或GPU)上進行翻譯。以下是一個在CPU上進行翻譯的示例:
from transformers import T5ForConditionalGeneration, T5Tokenizer
device = 'cpu' # 在CPU上進行翻譯
model_name = 'utrobinmv/t5_translate_en_ru_zh_small_1024'
model = T5ForConditionalGeneration.from_pretrained(model_name)
model.to(device)
tokenizer = T5Tokenizer.from_pretrained(model_name)
prefix = 'translate to zh: '
src_text = prefix + "Цель разработки — предоставить пользователям личного синхронного переводчика."
# 從俄語翻譯成中文
input_ids = tokenizer(src_text, return_tensors="pt")
generated_tokens = model.generate(**input_ids.to(device))
result = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
print(result)
# 開發的目的就是向用戶提供個性化的同步翻譯。
📚 詳細文檔
支持的語言對
該模型支持以下語言對的翻譯:
- ru-zh:俄語到中文
- zh-ru:中文到俄語
- en-zh:英語到中文
- zh-en:中文到英語
- en-ru:英語到俄語
- ru-en:俄語到英語
翻譯前綴
在進行翻譯時,需要在源文本前加上目標語言標識符前綴 “translate to
- 翻譯成中文:
translate to zh:
- 翻譯成俄語:
translate to ru:
- 翻譯成英語:
translate to en:
🔧 技術細節
本模型是一個經過精確配置的T5變壓器模型,用於多語言機器翻譯。它可以直接在俄語、中文和英語之間進行翻譯,並且支持多語言源文本。在進行翻譯時,模型會根據輸入的目標語言標識符前綴生成相應的翻譯結果。
📄 許可證
本項目採用Apache 2.0許可證。
📋 模型信息
屬性 | 詳情 |
---|---|
模型類型 | T5變壓器模型 |
訓練數據 | ccmatrix |
評估指標 | sacrebleu |
🔍 示例展示
示例標題 | 輸入文本 | 輸出結果 |
---|---|---|
translate zh-ru | translate to ru: 開發的目的是為用戶提供個人同步翻譯。 | Цель разработки - предоставить персонализированный синхронный перевод для пользователей. |
translate ru-en | translate to en: Цель разработки — предоставить пользователям личного синхронного переводчика. | The purpose of the development is to provide users with a personal synchronized interpreter. |
translate en-ru | translate to ru: The purpose of the development is to provide users with a personal synchronized interpreter. | Цель разработки — предоставить пользователям личного синхронного переводчика. |
translate en-zh | translate to zh: The purpose of the development is to provide users with a personal synchronized interpreter. | 開發的目的是為用戶提供個人同步解釋器。 |
translate zh-en | translate to en: 開發的目的是為用戶提供個人同步解釋器。 | The purpose of the development is to provide users with a personal synchronized interpreter. |
translate ru-zh | translate to zh: Цель разработки — предоставить пользователям личного синхронного переводчика. | 開發的目的就是向用戶提供個性化的同步翻譯。 |
M2m100 418M
MIT
M2M100是一個多語言編碼器-解碼器模型,支持100種語言的9900個翻譯方向
機器翻譯 支持多種語言
M
facebook
1.6M
299
Opus Mt Fr En
Apache-2.0
基於Transformer的法語到英語神經機器翻譯模型,由Helsinki-NLP團隊開發,採用OPUS多語數據集訓練。
機器翻譯 支持多種語言
O
Helsinki-NLP
1.2M
44
Opus Mt Ar En
Apache-2.0
基於OPUS數據訓練的阿拉伯語到英語的機器翻譯模型,採用transformer-align架構
機器翻譯 支持多種語言
O
Helsinki-NLP
579.41k
42
M2m100 1.2B
MIT
M2M100是一個支持100種語言的多語言機器翻譯模型,可直接在9900個翻譯方向之間進行翻譯。
機器翻譯 支持多種語言
M
facebook
501.82k
167
Indictrans2 Indic En 1B
MIT
支持25種印度語言與英語互譯的1.1B參數規模機器翻譯模型,由AI4Bharat項目開發
機器翻譯
Transformers 支持多種語言

I
ai4bharat
473.63k
14
Opus Mt En Zh
Apache-2.0
基於Transformer架構的英漢多方言翻譯模型,支持英語到13種漢語變體的翻譯任務
機器翻譯 支持多種語言
O
Helsinki-NLP
442.08k
367
Opus Mt Zh En
由赫爾辛基大學開發的基於OPUS語料庫的中文到英語機器翻譯模型
機器翻譯 支持多種語言
O
Helsinki-NLP
441.24k
505
Mbart Large 50 Many To Many Mmt
基於mBART-large-50微調的多語言機器翻譯模型,支持50種語言間的互譯
機器翻譯 支持多種語言
M
facebook
404.66k
357
Opus Mt De En
Apache-2.0
opus-mt-de-en 是一個基於 transformer-align 架構的德語到英語的機器翻譯模型,由 Helsinki-NLP 團隊開發。
機器翻譯 支持多種語言
O
Helsinki-NLP
404.33k
44
Opus Mt Es En
Apache-2.0
這是一個基於Transformer架構的西班牙語到英語的機器翻譯模型,由Helsinki-NLP團隊開發。
機器翻譯
Transformers 支持多種語言

O
Helsinki-NLP
385.40k
71
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98