Bibert Ende
BiBERT-endeは、ニューラル機械翻訳(NMT)に特化して最適化されたバイリンガル(英語 - ドイツ語)事前学習言語モデルで、コンテキスト埋め込みを提供することで翻訳性能を向上させます。
ダウンロード数 40
リリース時間 : 3/2/2022
モデル概要
BiBERT-endeは、コンテキスト埋め込みを直接NMTエンコーダーに入力することで、既存の事前学習モデルの統合プロセスを簡素化し、最先端の翻訳性能を実現するように設計されたカスタマイズされたバイリンガル事前学習言語モデルです。
モデル特徴
バイリンガル事前学習
英語とドイツ語に特化したバイリンガル事前学習により、異言語間のコンテキスト理解が最適化されます。
簡素化された統合
コンテキスト埋め込みを直接NMTエンコーダーの入力として使用することで、事前学習モデルの統合プロセスが簡素化されます。
ランダム層選択
ランダム層選択方法を提案し、コンテキスト埋め込みの異なるレベルの特徴を十分に活用します。
双方向翻訳モデル
双方向翻訳(英語→ドイツ語とドイツ語→英語)をサポートし、両方向で高い性能を実現します。
モデル能力
英語からドイツ語への機械翻訳
ドイツ語から英語への機械翻訳
コンテキスト埋め込み生成
使用事例
機械翻訳
IWSLT'14データセットの翻訳
IWSLT'14データセットで、英語→ドイツ語で30.45、ドイツ語→英語で38.61のBLEUスコアを達成します。
すべての公開された結果を上回ります
WMT'14データセットの翻訳
WMT'14データセットで、英語→ドイツ語で31.26、ドイツ語→英語で34.94のBLEUスコアを達成します。
すべての公開された結果を上回ります
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98