🚀 mT5_multilingual_XLSum-sumarizacao-PTBR
このモデルは、csebuetnlp/mT5_multilingual_XLSum を不明なデータセットでファインチューニングしたバージョンです。評価セットでは以下の結果を達成しています。
- 損失: 1.3870
- Rouge1: 42.0195
- Rouge2: 24.9493
- Rougel: 32.3653
- Rougelsum: 37.9982
- 生成長: 77.0
🚀 クイックスタート
モデルの動作を見てみましょう!
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
WHITESPACE_HANDLER = lambda k: re.sub('\s+', ' ', re.sub('\n+', ' ', k.strip()))
model_name = "GiordanoB/mT5_multilingual_XLSum-sumarizacao-PTBR"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
input_ids = tokenizer(
[WHITESPACE_HANDLER(sumariosDuplos[i])],
return_tensors="pt",
padding="max_length",
truncation=True,
max_length=512
)["input_ids"]
output_ids = model.generate(
input_ids=input_ids,
max_length=200,
min_length=75,
no_repeat_ngram_size=2,
num_beams=5
)[0]
summary = tokenizer.decode(
output_ids,
skip_special_tokens=True,
clean_up_tokenization_spaces=False
)
sumariosFinal.append(summary)
print(i,"\n",summary,"\n")
💻 使用例
基本的な使用法
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
WHITESPACE_HANDLER = lambda k: re.sub('\s+', ' ', re.sub('\n+', ' ', k.strip()))
model_name = "GiordanoB/mT5_multilingual_XLSum-sumarizacao-PTBR"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
input_ids = tokenizer(
[WHITESPACE_HANDLER(sumariosDuplos[i])],
return_tensors="pt",
padding="max_length",
truncation=True,
max_length=512
)["input_ids"]
output_ids = model.generate(
input_ids=input_ids,
max_length=200,
min_length=75,
no_repeat_ngram_size=2,
num_beams=5
)[0]
summary = tokenizer.decode(
output_ids,
skip_special_tokens=True,
clean_up_tokenization_spaces=False
)
sumariosFinal.append(summary)
print(i,"\n",summary,"\n")
📚 ドキュメント
意図された用途と制限
詳細情報が必要です。
学習と評価データ
詳細情報が必要です。
🔧 技術詳細
学習手順
学習ハイパーパラメータ
学習中に以下のハイパーパラメータが使用されました。
- 学習率: 2e-05
- 学習バッチサイズ: 8
- 評価バッチサイズ: 8
- シード: 42
- オプティマイザ: Adam (betas=(0.9,0.999), epsilon=1e-08)
- 学習率スケジューラの種類: 線形
- エポック数: 5
学習結果
学習損失 |
エポック |
ステップ |
検証損失 |
Rouge1 |
Rouge2 |
Rougel |
Rougelsum |
生成長 |
ログなし |
1.0 |
15 |
1.5687 |
32.2316 |
18.9289 |
23.918 |
27.7216 |
51.5714 |
ログなし |
2.0 |
30 |
1.4530 |
41.2297 |
26.1883 |
30.8012 |
37.1727 |
69.5714 |
ログなし |
3.0 |
45 |
1.4043 |
40.8986 |
24.4993 |
31.349 |
36.8782 |
72.2143 |
ログなし |
4.0 |
60 |
1.3908 |
42.1019 |
25.5555 |
32.9018 |
38.0202 |
74.5 |
ログなし |
5.0 |
75 |
1.3870 |
42.0195 |
24.9493 |
32.3653 |
37.9982 |
77.0 |
フレームワークのバージョン
- Transformers 4.18.0
- Pytorch 1.11.0
- Datasets 2.1.0
- Tokenizers 0.12.1