🚀 {AnanyaCoder/XLsim_en - de}
XLSimは、シアメーズアーキテクチャに基づく機械翻訳評価指標です。これは、WMT(2017 - 2022)が提供する人間の評点に回帰する教師付きの参照ベースの指標です。クロスリンガル言語モデルであるXLM - RoBERTa - base [ https://huggingface.co/xlm - roberta - base ] を使用し、CosineSimilarityLossを用いたシアメーズネットワークアーキテクチャで教師付きモデルを学習させます。
🚀 クイックスタート
このモデルを使用するには、sentence - transformers をインストールする必要があります。以下のコマンドでインストールできます。
pip install -U sentence-transformers
✨ 主な機能
- シアメーズアーキテクチャに基づく機械翻訳評価指標
- クロスリンガル言語モデルXLM - RoBERTa - baseを利用
📦 インストール
pip install -U sentence-transformers
💻 使用例
基本的な使用法
from sentence_transformers import SentenceTransformer,losses, models, util
metric_model = SentenceTransformer('{MODEL_NAME}')
mt_samples = ['This is a mt sentence1','This is a mt sentence2']
ref_samples = ['This is a ref sentence1','This is a ref sentence2']
mtembeddings = metric_model.encode(mt_samples, convert_to_tensor=True)
refembeddings = metric_model.encode(ref_samples, convert_to_tensor=True)
cosine_scores_refmt = util.cos_sim(mtembeddings, refembeddings)
metric_model_scores = []
for i in range(len(mt_samples)):
metric_model_scores.append(cosine_scores_refmt[i][i].tolist())
scores = metric_model_scores
📚 ドキュメント
評価結果
このモデルの自動評価については、[WMT23 Metrics Shared Task findings](https://aclanthology.org/2023.wmt - 1.51.pdf) を参照してください。
学習
このモデルは以下のパラメータで学習されました。
DataLoader:
torch.utils.data.dataloader.DataLoader
の長さは6625で、以下のパラメータが使用されました。
{'batch_size': 16, 'sampler': 'torch.utils.data.sampler.RandomSampler', 'batch_sampler': 'torch.utils.data.sampler.BatchSampler'}
Loss:
sentence_transformers.losses.CosineSimilarityLoss.CosineSimilarityLoss
fit()
メソッドのパラメータ:
{
"epochs": 4,
"evaluation_steps": 1000,
"evaluator": "sentence_transformers.evaluation.EmbeddingSimilarityEvaluator.EmbeddingSimilarityEvaluator",
"max_grad_norm": 1,
"optimizer_class": "<class 'torch.optim.adamw.AdamW'>",
"optimizer_params": {
"lr": 2e-05
},
"scheduler": "WarmupLinear",
"steps_per_epoch": null,
"warmup_steps": 2650,
"weight_decay": 0.01
}
モデルの完全なアーキテクチャ
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False})
)
引用と著者
詳細な情報は、[MEE4 and XLsim : IIIT HYD’s Submissions’ for WMT23 Metrics Shared Task](https://aclanthology.org/2023.wmt - 1.66) (Mukherjee & Shrivastava, WMT 2023) を参照してください。