N

Nllb 200 Distilled 1.3B Ct2 Int8

OpenNMTによって開発
NLLB-200 Distilled 1.3BはMetaが開発したニューラル機械翻訳モデルで、200言語間の翻訳をサポートし、CTranslate2を使用した効率的な推論が可能です。
ダウンロード数 101
リリース時間 : 11/30/2023

モデル概要

これはNo Language Left Behind (NLLB)プロジェクトに基づく蒸留版翻訳モデルで、効率的な多言語翻訳に特化し、特にメモリ使用量と推論速度を最適化しています。

モデル特徴

多言語サポート
200言語間の翻訳をサポートし、世界の主要な言語と方言のほとんどをカバーします
効率的な推論
CTranslate2を使用したint8量子化により、メモリ使用量を2-4倍削減しながら推論速度を維持します
最適化されたデプロイ
CPUとGPUでの効率的な実行をサポートし、本番環境でのデプロイに適しています

モデル能力

テキスト翻訳
多言語翻訳
低リソース言語翻訳

使用事例

グローバルアプリケーション
多言語コンテンツのローカライズ
グローバルアプリケーション向けに多言語コンテンツの翻訳を提供
200言語間の相互翻訳をサポート
研究アプリケーション
低リソース言語研究
言語学研究や低リソース言語保護のための翻訳サポートを提供
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase