Opus Mt Bg De
これはTransformerアーキテクチャに基づくブルガリア語からドイツ語への機械翻訳モデルで、Helsinki - NLPチームによって開発され、Tatoebaデータセットを使用して訓練されました。
ダウンロード数 84
リリース時間 : 3/2/2022
モデル概要
このモデルは、ブルガリア語のテキストをドイツ語に翻訳するために特別に設計されており、テキスト翻訳タスクに適しています。
モデル特徴
高精度翻訳
Tatoebaテストセットで49.3のBLEUスコアと0.676のchr - Fスコアを達成しました。
標準化前処理
標準化とSentencePiece(spm32k)の前処理技術を採用し、翻訳品質を向上させます。
多形式対応
ブルガリア語のラテン文字(bul_Latn)とキリル文字(bul)の2つの入力形式をサポートします。
モデル能力
ブルガリア語からドイツ語へのテキスト翻訳
標準化テキストの処理
SentencePieceで分かち書きされたテキストの処理
使用事例
テキスト翻訳
日常用語の翻訳
ブルガリア語の日常会話をドイツ語に翻訳する
Tatoebaテストセットで良好な結果を示します
簡単な文書の翻訳
簡単なブルガリア語の文書をドイツ語に翻訳する
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98