N

Nllb Moe 54b 4bit

KnutJaegersbergによって開発
NLLB-MoEはMetaが開発した混合専門家機械翻訳モデルで、200言語をサポートし、現在最も先進的なオープンアクセス機械翻訳モデルの一つです。
ダウンロード数 17
リリース時間 : 12/16/2023

モデル概要

NLLB-MoEは混合専門家アーキテクチャに基づく大規模多言語機械翻訳モデルで、低リソース言語の翻訳問題解決に焦点を当て、専門家出力マスキング技術で性能を最適化しています。

モデル特徴

超大規模多言語サポート
200言語の相互翻訳をサポートし、多くの低リソース言語を含む
混合専門家アーキテクチャ
MoEアーキテクチャを採用し、効率的な大規模モデル訓練と推論を実現
専門家出力マスキング
専門家出力マスキング技術を使用してモデル性能を最適化
効率的な推論最適化
bitsandbytesとHugging Face Transformersによる最適化で高速ロードを実現

モデル能力

テキスト翻訳
多言語相互翻訳
低リソース言語処理

使用事例

グローバルアプリケーション
多言語コンテンツローカライゼーション
グローバルアプリやウェブサイト向けに多言語コンテンツ翻訳を提供
200言語の正確な相互翻訳をサポート
低リソース言語保護
絶滅危機や低リソース言語に機械翻訳サポートを提供
少数言語が主流言語と同等の翻訳品質を獲得
学術研究
クロスランゲージ研究
学術論文や研究資料の言語間変換をサポート
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase