🚀 帕梅拉·博雷利/flan - t5 - base - 葡萄牙語摘要模型卡
本模型主要用於葡萄牙語的文本摘要任務,基於flan - t5 - base模型微調而來,在特定數據集上訓練,以提升葡萄牙語文本摘要的能力。
🚀 快速開始
使用示例
from transformers import T5Tokenizer, T5ForConditionalGeneration
tokenizer = T5Tokenizer.from_pretrained("PamelaBorelli/flan-t5-base-summarization-pt-br")
model = T5ForConditionalGeneration.from_pretrained("PamelaBorelli/flan-t5-base-summarization-pt-br")
input_text = "O corpo está mais propenso a sentir dores com exercícios de alta intensidade | Foto: Getty Images O problema está em saber identificar qual é qual. \"Em algumas situações, é difícil diferenciar uma da outra\", reconhece Juan Francisco Marco, professor do Centro de Ciência do Esporte, Treinamento e Fitness Alto Rendimento, na Espanha. \"A dor boa é aquela que associamos ao exercício físico, que não limita (o movimento) e permite continuar (a se exercitar) até o momento em que o músculo fica realmente esgotado e não trabalha mais\", explica. É importante detectar qual é o tipo de dor que você está sentindo, para evitar ter problemas mais sérios | Foto: Getty Images Para Francisco Sánchez Diego, diretor do centro de treinamento Corpore 10, \"a dor boa se sente no grupo muscular que você trabalhou, tanto durante o treinamento como nos dias seguintes\"."
input_ids = tokenizer(input_text, return_tensors="pt").input_ids
outputs = model.generate(input_ids)
print(tokenizer.decode(outputs[0]))
✨ 主要特性
- 基於多語言模型:原始模型 [flan - t5 - base](https://huggingface.co/google/flan - t5 - base#model - details) 是一個多語言模型,大小為2.48億參數,採用基於T5(Text - to - Text Transfer Transformer)的編碼器 - 解碼器架構。
- 微調優化:最終模型 [PamelaBorelli/flan - t5 - base - summarization - pt - br](PamelaBorelli/flan - t5 - base - summarization - pt - br) 經過了兩次微調,先進行文本翻譯微調,後進行葡萄牙語文本摘要任務微調。
- 特定語言適用:專為葡萄牙語文本摘要任務設計,未在其他語言上進行測試。
📚 詳細文檔
一般信息
屬性 |
詳情 |
名稱 |
[PamelaBorelli/flan - t5 - base - summarization - pt - br](PamelaBorelli/flan - t5 - base - summarization - pt - br) |
類型 |
語言模型,Transformer編碼器 - 解碼器 |
許可證 |
MIT |
基礎模型 |
[google/flan - t5 - base](https://huggingface.co/google/flan - t5 - base#model - details) |
相關模型 |
FLAN - T5的檢查點 |
原始檢查點 |
FLAN - T5的檢查點 |
訓練數據
訓練參數
evaluation_strategy="steps"
eval_steps=
learning_rate=
per_device_train_batch_size=
per_device_eval_batch_size=
gradient_accumulation_steps=
weight_decay=
num_train_epochs=
save_strategy="steps"
save_steps =
push_to_hub=False
load_best_model_at_end=True
分詞參數
start_prompt= "Sumarize: \n"
end_prompt= "\n\nSumário: "
input_name="coluna_imput"
target_name="coluna_target"
max_input_length = 256
max_target_length = 256
columns_to_remove= ['coluna_to_remove']
支持語言
葡萄牙語
使用目的
該模型旨在完成葡萄牙語文本的摘要任務,未在其他語言上進行測試。
📄 許可證
本模型使用MIT許可證。