N

Nllb Moe 54b 4bit

由KnutJaegersberg開發
NLLB-MoE是Meta開發的混合專家機器翻譯模型,支持200種語言,是目前最先進的開放訪問機器翻譯模型之一。
下載量 17
發布時間 : 12/16/2023

模型概述

NLLB-MoE是基於混合專家架構的大規模多語言機器翻譯模型,專注於解決低資源語言的翻譯問題,採用專家輸出掩碼技術優化性能。

模型特點

超大規模多語言支持
支持200種語言的互譯,包括許多低資源語言
混合專家架構
採用MoE架構實現高效的大規模模型訓練和推理
專家輸出掩碼
使用專家輸出掩碼技術優化模型性能
高效推理優化
通過bitsandbytes和Hugging Face Transformers優化實現快速加載

模型能力

文本翻譯
多語言互譯
低資源語言處理

使用案例

全球化應用
多語言內容本地化
為全球化應用和網站提供多語言內容翻譯
支持200種語言的準確互譯
低資源語言保護
為瀕危和低資源語言提供機器翻譯支持
使小語種獲得與主流語言相當的翻譯質量
學術研究
跨語言研究
支持學術論文和研究資料的跨語言轉換
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase