Nllb Jaen 1.3B Lightnovels
N
Nllb Jaen 1.3B Lightnovels
Developed by thefrigidliquidation
ライトノベルやウェブ小説の日英翻訳タスク向けにファインチューニングされた翻訳モデルで、最大512トークンの文や段落の翻訳をサポート
Downloads 842
Release Time : 10/1/2022
Model Overview
このモデルはNLLB-1.3Bアーキテクチャを基にファインチューニングされた日英翻訳モデルで、ライトノベルやウェブ小説の翻訳品質を特に最適化し、用語制御や敬語処理をサポート
Model Features
ライトノベル専用最適化
ライトノベルやウェブ小説の言語的特徴に特化して最適化
用語制御
最大10個のカスタム名詞やキャラクター名の翻訳制御をサポート
敬語処理
翻訳文における敬語使用モードを強制的に制御可能
長文サポート
最大512トークンの文や段落の翻訳を処理可能
Model Capabilities
日本語から英語への翻訳
ライトノベルテキスト翻訳
ウェブ小説テキスト翻訳
用語制御翻訳
敬語モード制御
Use Cases
文学翻訳
ライトノベル翻訳
日本語のライトノベルを英語に翻訳
原作のスタイルを保持したプロ翻訳
ウェブ小説翻訳
日本語のウェブ小説を英語に翻訳
ネットスラングや特殊表現を正確に伝達
ローカライゼーション
キャラクター名ローカライズ
キャラクター名の翻訳一貫性を維持
用語集を通じて統一翻訳を実現
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98