Nllb 200 Distilled 600M Ja Zh
N
Nllb 200 Distilled 600M Ja Zh
neverLifeによって開発
これはNLLB-200アーキテクチャに基づく蒸留版シーケンス・ツー・シーケンスモデルで、日本語から中国語への翻訳タスク専用です。
ダウンロード数 174
リリース時間 : 5/15/2023
モデル概要
このモデルはNLLB-200の軽量版で、日本語から中国語へのテキスト翻訳に特化しており、Transformerアーキテクチャを採用し、高い翻訳品質を維持しながらモデルサイズを削減しています。
モデル特徴
効率的な蒸留モデル
大規模なNLLB-200モデルから知識蒸留技術で中核的な翻訳能力を抽出し、性能を維持しながら計算リソース要件を削減
バイリンガル専門翻訳
日本語から中国語への翻訳シナリオに特化して最適化され、日常会話や簡単な専門用語を処理
軽量デプロイ
完全版NLLB-200モデルと比較してパラメータサイズが大幅に減少し、リソースが限られた環境でのデプロイに適している
モデル能力
日本語から中国語へのテキスト翻訳
日常会話の翻訳処理
ビームサーチデコードのサポート
使用事例
言語サービス
日常会話翻訳
日本語の日常会話を自然で流暢な中国語に翻訳
BLEUスコア55.834で、良好な翻訳品質を示す
簡単な文書翻訳
非専門的な日本語文書を中国語に翻訳
適度な長さのテキストを処理可能(最大128トークン)
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98