🚀 パメラ・ボレッリ/flan - t5 - base - sumarização - pt - brのモデルカード
このモデルは、ポルトガル語(ブラジル)の文章要約タスクに特化した言語モデルです。元となるモデルをベースに、要約タスク用に微調整されています。
🚀 クイックスタート
使い方
from transformers import T5Tokenizer, T5ForConditionalGeneration
tokenizer = T5Tokenizer.from_pretrained("PamelaBorelli/flan-t5-base-summarization-pt-br")
model = T5ForConditionalGeneration.from_pretrained("PamelaBorelli/flan-t5-base-summarization-pt-br")
input_text = "O corpo está mais propenso a sentir dores com exercícios de alta intensidade | Foto: Getty Images O problema está em saber identificar qual é qual. \"Em algumas situações, é difícil diferenciar uma da outra\", reconhece Juan Francisco Marco, professor do Centro de Ciência do Esporte, Treinamento e Fitness Alto Rendimento, na Espanha. \"A dor boa é aquela que associamos ao exercício físico, que não limita (o movimento) e permite continuar (a se exercitar) até o momento em que o músculo fica realmente esgotado e não trabalha mais\", explica. É importante detectar qual é o tipo de dor que você está sentindo, para evitar ter problemas mais sérios | Foto: Getty Images Para Francisco Sánchez Diego, diretor do centro de treinamento Corpore 10, \"a dor boa se sente no grupo muscular que você trabalhou, tanto durante o treinamento como nos dias seguintes\"."
input_ids = tokenizer(input_text, return_tensors="pt").input_ids
outputs = model.generate(input_ids)
print(tokenizer.decode(outputs[0]))
✨ 主な機能
- ポルトガル語(ブラジル)の文章要約を行うことができます。
- 元となるモデルは多言語対応のflan - t5 - baseで、これを要約タスク用に微調整しています。
📦 インストール
コードの実行に必要なライブラリは、transformers
です。以下のコマンドでインストールできます。
pip install transformers
📚 ドキュメント
一般情報
概要
元となるモデルはflan - t5 - baseです。これは248Mのサイズの多言語モデルで、T5(Text - to - Text Transfer Transformer)のエンコーダ・デコーダアーキテクチャを持っています。元のFlan - T5は、汎化能力を向上させるために、様々なタスクの混合で調整されています。
最終的なモデルPamelaBorelli/flan-t5-base-summarization-pt-brは、命令と微調整(finetune) のプロセスで訓練されました。まず、データセットを使用してテキスト翻訳用に微調整し、その後、ポルトガル語(ブラジル)のデータセットを使用して要約タスク用に微調整しました。
想定される使用法
このモデルは、ポルトガル語(ブラジル)の文章要約タスク用に開発されています。他の言語でのテストは行われていません。
言語
ポルトガル語(ブラジル)
訓練データ
このモデルは、以下のパラメータを使用して要約タスク用に訓練されています。
evaluation_strategy="steps"
eval_steps=
learning_rate=
per_device_train_batch_size=
per_device_eval_batch_size=
gradient_accumulation_steps=
weight_decay=
num_train_epochs=
save_strategy="steps"
save_steps =
push_to_hub=False
load_best_model_at_end=True
トークン化には、以下のパラメータが使用されています。
start_prompt= "Sumarize: \n"
end_prompt= "\n\nSumário: "
input_name="coluna_imput"
target_name="coluna_target"
max_input_length = 256
max_target_length = 256
columns_to_remove= ['coluna_to_remove']
📄 ライセンス
このモデルはMITライセンスの下で提供されています。