🚀 ローラー微調整済みXSum-T5要約器
このモデルは、xsumデータセットで t5-small を微調整したバージョンです。テキスト要約に最適化された、T5-smallのLoRA(低ランク適応)微調整版です。
✨ 主な機能
このモデルは、XSumデータセットを使用して抽象的な要約のために訓練された、T5-smallのLoRA(低ランク適応)微調整版です。テキスト要約タスクに最適化されています。
📦 インストール
このREADMEには具体的なインストール手順が記載されていないため、このセクションは省略されます。
💻 使用例
基本的な使用法
from peft import PeftModel
from transformers import AutoModelForSeq2SeqLM
from transformers import AutoTokenizer
import torch
base_model = AutoModelForSeq2SeqLM.from_pretrained("t5-small")
my_model = PeftModel.from_pretrained(base_model, "Lakshan2003/finetuned-t5-xsum")
def test_peft_summarizer(text, model, max_length=128, min_length=30):
"""
Test the PEFT-loaded summarization model
Args:
text (str): Input text to summarize
model: The loaded PEFT model
max_length (int): Maximum length of the summary
min_length (int): Minimum length of the summary
"""
tokenizer = AutoTokenizer.from_pretrained("Lakshan2003/finetuned-t5-xsum")
device = "cuda" if torch.cuda.is_available() else "cpu"
model = model.to(device)
prefix = "summarize: "
input_text = prefix + text
inputs = tokenizer(input_text, return_tensors="pt", max_length=512, truncation=True)
inputs = {k: v.to(device) for k, v in inputs.items()}
with torch.no_grad():
output_ids = model.generate(
input_ids=inputs["input_ids"],
attention_mask=inputs["attention_mask"],
max_length=max_length,
min_length=min_length,
num_beams=4,
length_penalty=2.0,
early_stopping=True,
no_repeat_ngram_size=3
)
summary = tokenizer.decode(output_ids[0], skip_special_tokens=True)
return summary
test_text = """
The United Nations has warned that climate change poses an unprecedented threat to human civilization. In a landmark report, scientists detailed how rising temperatures are affecting everything from weather patterns to food production. The report emphasizes that without immediate and substantial action to reduce greenhouse gas emissions, the world faces severe consequences including rising sea levels, more frequent extreme weather events, and widespread ecosystem collapse. Many countries have pledged to reduce their carbon emissions, but experts say current commitments fall short of what's needed to prevent the worst impacts of climate change. The report also highlights the disproportionate effect of climate change on developing nations, which often lack the resources to adapt to changing conditions.
"""
summary = test_peft_summarizer(test_text, my_model)
print("Original Text:")
print(test_text)
print("\nGenerated Summary:")
print(summary)
🔧 技術詳細
学習ハイパーパラメータ
学習中に以下のハイパーパラメータが使用されました。
- learning_rate: 2e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 2
- total_train_batch_size: 8
- optimizer: betas=(0.9,0.999)、epsilon=1e-08のadamw_torchを使用。追加のオプティマイザ引数はありません。
- lr_scheduler_type: linear
- num_epochs: 1
- mixed_precision_training: Native AMP
フレームワークのバージョン
- PEFT 0.14.0
- Transformers 4.47.0
- Pytorch 2.5.1+cu121
- Datasets 3.2.0
- Tokenizers 0.21.0
📄 ライセンス
このモデルはApache-2.0ライセンスの下で提供されています。