B

Bibert Ende

jhu-clspによって開発
BiBERT-endeは、ニューラル機械翻訳(NMT)に特化して最適化されたバイリンガル(英語 - ドイツ語)事前学習言語モデルで、コンテキスト埋め込みを提供することで翻訳性能を向上させます。
ダウンロード数 40
リリース時間 : 3/2/2022

モデル概要

BiBERT-endeは、コンテキスト埋め込みを直接NMTエンコーダーに入力することで、既存の事前学習モデルの統合プロセスを簡素化し、最先端の翻訳性能を実現するように設計されたカスタマイズされたバイリンガル事前学習言語モデルです。

モデル特徴

バイリンガル事前学習
英語とドイツ語に特化したバイリンガル事前学習により、異言語間のコンテキスト理解が最適化されます。
簡素化された統合
コンテキスト埋め込みを直接NMTエンコーダーの入力として使用することで、事前学習モデルの統合プロセスが簡素化されます。
ランダム層選択
ランダム層選択方法を提案し、コンテキスト埋め込みの異なるレベルの特徴を十分に活用します。
双方向翻訳モデル
双方向翻訳(英語→ドイツ語とドイツ語→英語)をサポートし、両方向で高い性能を実現します。

モデル能力

英語からドイツ語への機械翻訳
ドイツ語から英語への機械翻訳
コンテキスト埋め込み生成

使用事例

機械翻訳
IWSLT'14データセットの翻訳
IWSLT'14データセットで、英語→ドイツ語で30.45、ドイツ語→英語で38.61のBLEUスコアを達成します。
すべての公開された結果を上回ります
WMT'14データセットの翻訳
WMT'14データセットで、英語→ドイツ語で31.26、ドイツ語→英語で34.94のBLEUスコアを達成します。
すべての公開された結果を上回ります
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase