🚀 Seed-X-PPO-7B
Seed-X 是一系列強大的開源多語言翻譯語言模型,涵蓋指令模型、強化學習模型和獎勵模型。它在 70 億參數的規模下,突破了翻譯能力的界限,為翻譯研究和應用提供了便捷、現成的工具。
🚀 快速開始
📮 注意事項
⚠️ 重要提示
- 提示詞末尾的語言標籤必不可少,這些標籤用於 PPO 訓練。例如,當目標語言為德語時,需要添加
<de>
。語言縮寫可參考上述表格。
- 此模型專門用於多語言翻譯,不支持其他任務。
- 本模型沒有聊天模板,因此無需執行
tokenizer.apply_chat_template
。請避免以多輪對話的格式向模型提問。
- 不建議使用非官方量化版本進行本地部署。我們將盡快發佈官方量化模型,並在 Hugging Face Space 上開發演示。
以下是一個使用 vllm
加載模型並進行翻譯的簡單示例:
基礎用法
from vllm import LLM, SamplingParams, BeamSearchParams
model_path = "./ByteDance-Seed/Seed-X-PPO-7B"
model = LLM(model=model_path,
max_num_seqs=512,
tensor_parallel_size=8,
enable_prefix_caching=True,
gpu_memory_utilization=0.95)
messages = [
"Translate the following English sentence into Chinese:\nMay the force be with you <zh>",
"Translate the following English sentence into Chinese and explain it in detail:\nMay the force be with you <zh>"
]
decoding_params = BeamSearchParams(beam_width=4,
max_tokens=512)
decoding_params = SamplingParams(temperature=0,
max_tokens=512,
skip_special_tokens=True)
results = model.generate(messages, decoding_params)
responses = [res.outputs[0].text.strip() for res in results]
print(responses)
推薦環境
推薦使用的版本:vllm==0.8.0
,transformers==4.51.3
✨ 主要特性
- 卓越的翻譯能力:經人工評估和自動指標驗證,Seed-X 展現了最先進的翻譯能力,與 Gemini-2.5、Claude-3.5 和 GPT-4 等超大型模型相當或更優。
- 易於部署和推理:擁有緊湊的 70 億參數和米斯特拉爾架構,Seed-X 在輕量級和高效的封裝中提供了出色的翻譯性能,非常適合部署和推理。
- 廣泛的領域覆蓋:在涵蓋互聯網、科技、辦公對話、電子商務、生物醫學、金融、法律、文學和娛樂等多個領域的極具挑戰性的翻譯測試集上表現出色。
📦 安裝指南
文檔未提及安裝步驟,故跳過此章節。
💻 使用示例
見快速開始部分的代碼示例。
📚 詳細文檔
支持語言
語言 |
縮寫 |
語言 |
縮寫 |
語言 |
縮寫 |
語言 |
縮寫 |
阿拉伯語 |
ar |
法語 |
fr |
馬來語 |
ms |
俄語 |
ru |
捷克語 |
cs |
克羅地亞語 |
hr |
書面挪威語 |
nb |
瑞典語 |
sv |
丹麥語 |
da |
匈牙利語 |
hu |
荷蘭語 |
nl |
泰語 |
th |
德語 |
de |
印尼語 |
id |
挪威語 |
no |
土耳其語 |
tr |
英語 |
en |
意大利語 |
it |
波蘭語 |
pl |
烏克蘭語 |
uk |
西班牙語 |
es |
日語 |
ja |
葡萄牙語 |
pt |
越南語 |
vi |
芬蘭語 |
fi |
韓語 |
ko |
羅馬尼亞語 |
ro |
中文 |
zh |
模型下載
模型名稱 |
描述 |
下載 |
Seed-X-Instruct |
經過指令微調,以符合用戶意圖。 |
🤗 模型 |
👉 Seed-X-PPO |
經過強化學習訓練,以提升翻譯能力。 |
🤗 模型 |
Seed-X-RM |
獎勵模型,用於評估翻譯質量。 |
🤗 模型 |
評估
我們在一系列多樣化的翻譯基準測試中對 Seed-X 進行了評估,包括 FLORES - 200、WMT - 25 以及一個公開的挑戰集,並進行了人工評估。
如需詳細的基準測試結果和分析,請參考我們的技術報告。
🔧 技術細節
文檔未提供具體的技術實現細節,故跳過此章節。
📄 許可證
本項目採用 OpenMDW 許可證。詳情請參閱 LICENSE 文件。
引用
如果您發現 Seed-X 對您的研究和應用有幫助,請給我們點個星 ⭐ 或使用以下 BibTeX 格式引用我們:
@misc{cheng2025seedxbuildingstrongmultilingual,
title={Seed-X: Building Strong Multilingual Translation LLM with 7B Parameters},
author={Shanbo Cheng and Yu Bao and Qian Cao and Luyang Huang and Liyan Kang and Zhicheng Liu and Yu Lu and Wenhao Zhu and Jingwen Chen and Zhichao Huang and Tao Li and Yifu Li and Huiying Lin and Sitong Liu and Ningxin Peng and Shuaijie She and Lu Xu and Nuo Xu and Sen Yang and Runsheng Yu and Yiming Yu and Liehao Zou and Hang Li and Lu Lu and Yuxuan Wang and Yonghui Wu},
year={2025},
eprint={2507.13618},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2507.13618},
}
模型信息
屬性 |
詳情 |
模型類型 |
因果語言模型 |
訓練階段 |
預訓練和後訓練 |
支持內容 |
28 種語言的多語言翻譯 |
數據集 |
facebook/flores、google/wmt24pp |
評估指標 |
bleurt、comet |
任務類型 |
翻譯 |