Modernbert Large Qe Maxlen512 V1
基於ModernBERT-large微調的機器翻譯質量評估模型,用於無參考質量評估任務
下載量 20
發布時間 : 1/13/2025
模型概述
該模型用於機器翻譯系統的無參考質量評估,能夠預測翻譯質量分數而不需要參考譯文。
模型特點
多語言支持
支持25種語言的質量評估,包括孟加拉語、中文、英語、法語、德語等
無參考評估
不需要參考譯文即可評估翻譯質量
高效訓練
使用flash_attention_2優化訓練效率
模型能力
機器翻譯質量評分
多語言文本處理
迴歸預測
使用案例
機器翻譯系統
翻譯質量監控
自動評估翻譯系統的輸出質量
皮爾遜相關係數0.4589,MAE 0.1861
本地化服務
多語言內容質量檢查
評估本地化內容的翻譯質量
🚀 機器翻譯質量評估模型
本項目的模型用於機器翻譯系統的無參考質量評估(QE),基於特定數據集對預訓練模型進行微調,能為機器翻譯的質量提供量化評估,在相關任務中具有重要價值。
🚀 快速開始
本模型是 answerdotai/ModernBERT-large 在 ymoslem/wmt-da-human-evaluation 數據集上的微調版本。 它在評估集上取得了以下結果:
- 損失值:0.0564
✨ 主要特性
- 多語言支持:支持多種語言,包括多語言、孟加拉語、捷克語、德語、英語等。
- 質量評估:用於機器翻譯的無參考質量評估。
📦 安裝指南
安裝所需的庫:
pip3 install --upgrade datasets accelerate transformers
pip3 install --upgrade flash_attn triton
💻 使用示例
基礎用法
# 加載測試數據集
from datasets import load_dataset
test_dataset = load_dataset("ymoslem/wmt-da-human-evaluation",
split="test",
trust_remote_code=True
)
print(test_dataset)
# 加載模型和分詞器
from transformers import AutoModelForSequenceClassification, AutoTokenizer
import torch
# 加載微調後的模型和分詞器
model_name = "ymoslem/ModernBERT-large-qe-maxlen512-v1"
model = AutoModelForSequenceClassification.from_pretrained(
model_name,
device_map="auto",
torch_dtype=torch.bfloat16,
attn_implementation="flash_attention_2",
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# 如果有可用的GPU,將模型移到GPU上
device = "cuda" if torch.cuda.is_available() else "cpu"
model.to(device)
model.eval()
# 準備數據集
sep_token = tokenizer.sep_token
input_test_texts = [f"{src} {sep_token} {tgt}" for src, tgt in zip(test_dataset["src"], test_dataset["mt"])]
# 生成預測
from transformers import pipeline
classifier = pipeline("text-classification",
model=model_name,
tokenizer=tokenizer,
device=0,
)
predictions = classifier(input_test_texts,
batch_size=128,
truncation=True,
padding="max_length",
max_length=tokenizer.model_max_length,
)
predictions = [prediction["score"] for prediction in predictions]
高級用法
# 使用更精細的代碼進行預測
from torch.utils.data import DataLoader
import torch
from tqdm.auto import tqdm
# 分詞函數
def process_batch(batch, tokenizer, device):
sep_token = tokenizer.sep_token
input_texts = [f"{src} {sep_token} {tgt}" for src, tgt in zip(batch["src"], batch["mt"])]
tokens = tokenizer(input_texts,
truncation=True,
padding="max_length",
max_length=tokenizer.model_max_length,
return_tensors="pt",
).to(device)
return tokens
# 創建DataLoader進行批量處理
test_dataloader = DataLoader(test_dataset,
batch_size=128, # 根據需要調整批量大小
shuffle=False)
# 存儲所有預測結果的列表
predictions = []
with torch.no_grad():
for batch in tqdm(test_dataloader, desc="Inference Progress", unit="batch"):
tokens = process_batch(batch, tokenizer, device)
# 前向傳播:生成模型的對數幾率
outputs = model(**tokens)
# 獲取對數幾率(預測結果)
logits = outputs.logits
# 提取回歸預測值
batch_predictions = logits.squeeze()
# 將預測結果添加到列表中
predictions.extend(batch_predictions.tolist())
📚 詳細文檔
模型描述
此模型用於機器翻譯(MT)系統的無參考質量評估(QE)。
訓練過程
訓練超參數
此版本的模型使用 tokenizer.model_max_length = 512
。
完整長度為 8192 的模型可在此處找到 ymoslem/ModernBERT-large-qe-v1。
訓練期間使用了以下超參數:
- 學習率:8e-05
- 訓練批量大小:128
- 評估批量大小:128
- 隨機種子:42
- 優化器:使用 OptimizerNames.ADAMW_TORCH_FUSED,β值為 (0.9, 0.999),ε值為 1e-08,無額外優化器參數
- 學習率調度器類型:線性
- 訓練步數:10000
訓練結果
訓練損失 | 輪數 | 步數 | 驗證損失 |
---|---|---|---|
0.0631 | 0.1004 | 1000 | 0.0674 |
0.0614 | 0.2007 | 2000 | 0.0599 |
0.0578 | 0.3011 | 3000 | 0.0585 |
0.0585 | 0.4015 | 4000 | 0.0579 |
0.0568 | 0.5019 | 5000 | 0.0570 |
0.057 | 0.6022 | 6000 | 0.0568 |
0.0579 | 0.7026 | 7000 | 0.0567 |
0.0573 | 0.8030 | 8000 | 0.0565 |
0.0568 | 0.9033 | 9000 | 0.0564 |
0.0571 | 1.0037 | 10000 | 0.0564 |
框架版本
- Transformers 4.48.0
- Pytorch 2.4.1+cu124
- Datasets 3.2.0
- Tokenizers 0.21.0
模型信息
屬性 | 詳情 |
---|---|
庫名稱 | transformers |
支持語言 | 多語言、孟加拉語、捷克語、德語、英語、愛沙尼亞語、芬蘭語、法語、古吉拉特語、豪薩語、印地語、冰島語、日語、哈薩克語、高棉語、立陶宛語、拉脫維亞語、波蘭語、普什圖語、俄語、泰米爾語、土耳其語、烏克蘭語、科薩語、中文、祖魯語 |
許可證 | apache-2.0 |
基礎模型 | answerdotai/ModernBERT-large |
標籤 | 質量評估、迴歸、由訓練器生成 |
數據集 | ymoslem/wmt-da-human-evaluation |
新版本 | ymoslem/ModernBERT-large-qe-v1 |
評估指標
指標名稱 | 類型 | 值 |
---|---|---|
皮爾遜相關係數 | Pearson | 0.4589 |
平均絕對誤差 | MAE | 0.1861 |
均方根誤差 | RMSE | 0.2375 |
決定係數 | R2 | 0.2106 |
📄 許可證
本項目採用 apache-2.0 許可證。
Distilbert Base Cased Distilled Squad
Apache-2.0
DistilBERT是BERT的輕量級蒸餾版本,參數量減少40%,速度提升60%,保留95%以上性能。本模型是在SQuAD v1.1數據集上微調的問答專用版本。
問答系統 英語
D
distilbert
220.76k
244
Distilbert Base Uncased Distilled Squad
Apache-2.0
DistilBERT是BERT的輕量級蒸餾版本,參數量減少40%,速度提升60%,在GLUE基準測試中保持BERT 95%以上的性能。本模型專為問答任務微調。
問答系統
Transformers 英語

D
distilbert
154.39k
115
Tapas Large Finetuned Wtq
Apache-2.0
TAPAS是基於BERT架構的表格問答模型,通過自監督方式在維基百科表格數據上預訓練,支持對錶格內容進行自然語言問答
問答系統
Transformers 英語

T
google
124.85k
141
T5 Base Question Generator
基於t5-base的問答生成模型,輸入答案和上下文,輸出相應問題
問答系統
Transformers

T
iarfmoose
122.74k
57
Bert Base Cased Qa Evaluator
基於BERT-base-cased的問答對評估模型,用於判斷問題和答案是否語義相關
問答系統
B
iarfmoose
122.54k
9
Tiny Doc Qa Vision Encoder Decoder
MIT
一個基於MIT許可證的文檔問答模型,主要用於測試目的。
問答系統
Transformers

T
fxmarty
41.08k
16
Dpr Question Encoder Single Nq Base
DPR(密集段落檢索)是用於開放領域問答研究的工具和模型。該模型是基於BERT的問題編碼器,使用自然問題(NQ)數據集訓練。
問答系統
Transformers 英語

D
facebook
32.90k
30
Mobilebert Uncased Squad V2
MIT
MobileBERT是BERT_LARGE的輕量化版本,在SQuAD2.0數據集上微調而成的問答系統模型。
問答系統
Transformers 英語

M
csarron
29.11k
7
Tapas Base Finetuned Wtq
Apache-2.0
TAPAS是一個基於Transformer的表格問答模型,通過自監督學習在維基百科表格數據上預訓練,並在WTQ等數據集上微調。
問答系統
Transformers 英語

T
google
23.03k
217
Dpr Question Encoder Multiset Base
基於BERT的密集段落檢索(DPR)問題編碼器,用於開放領域問答研究,在多個QA數據集上訓練
問答系統
Transformers 英語

D
facebook
17.51k
4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98