🚀 フルトレインXSum-BARTモデル
このモデルは、XSumデータセットを用いて要約タスクに対してファインチューニングされたもので、長い文書を入力として簡潔な要約を生成します。
🚀 クイックスタート
このモデルは、XSumデータセットを用いて抽象的要約タスクに対してファインチューニングされています。長い文書を入力として受け取り、簡潔な要約を生成します。
✨ 主な機能
- モデルは、XSumデータセットを用いて抽象的要約タスクに対してファインチューニングされています。
- 長い文書を入力として受け取り、簡潔な要約を生成します。
📦 インストール
このモデルを使用するには、transformers
ライブラリが必要です。以下のコマンドでインストールできます。
pip install transformers
💻 使用例
基本的な使用法
from transformers import pipeline
summarizer = pipeline("summarization", model="bhargavis/fulltrain-xsum-bart")
input_text = """
Authorities have issued a warning after multiple sightings of a large brown bear in the woods. The bear is known to become aggressive if disturbed, and residents are urged to exercise caution. Last week, a group of hikers reported a close encounter with the animal. While no injuries were sustained, the bear displayed defensive behavior when approached. Wildlife officials advise keeping a safe distance and avoiding the area if possible. Those encountering the bear should remain calm, back away slowly, and refrain from making sudden movements. Officials continue to monitor the situation.
"""
summary = summarizer(input_text, max_length=64, min_length=30, do_sample=False)
print(summary[0]["summary_text"])
📚 ドキュメント
モデルの説明
モデル - fulltrain-xsum-bart
- アーキテクチャ - BART (双方向および自己回帰型トランスフォーマー)
- タスク - 抽象的要約
- データセット - XSum (極端要約)
- トレーニングハードウェア - 2x NVIDIA T4 GPU (Kaggleを使用)
- トレーニング時間: 約9時間
このモデルは、XSumデータセットを用いて抽象的要約タスクに対してファインチューニングされています。長い文書を入力として受け取り、簡潔な要約を生成します。
データセットの詳細
- トレーニングデータセット - 204,045サンプル
- 検証データセット - 11,332サンプル
- テストデータセット - 11,334サンプル
XSumデータセットは、BBCの記事とそれに対応する単文の要約で構成されています。モデルは、入力文書の本質を捉えた簡潔な要約を生成するようにトレーニングされました。
トレーニングの詳細
トレーニングパラメータ |
値 |
トレーニングエポック数 |
1 |
バッチサイズ |
8 (デバイスごと) |
学習率 |
5e-5 |
重み減衰 |
0.01 |
ウォームアップステップ |
500 |
FP16トレーニング |
有効 |
評価戦略 |
エポックごと |
最良モデル選択 |
検証損失 (eval_loss) に基づく |
評価指標
モデルは、以下の指標を使用して評価されました。
指標 |
スコア |
トレーニング損失 |
0.3771 |
検証損失 |
0.350379 |
Rouge-1 |
0.401344019 |
Rouge-2 |
0.188076798 |
Rouge-L |
0.33460693 |
これらの指標は、rouge_scorer
ライブラリを使用してROUGEスコアを計算しました。
トレーニング引数
モデルは、以下のHugging Face Seq2SeqTrainingArgumentsを使用してトレーニングされました。
引数 |
値 |
保存戦略 |
エポックごと |
ロギングステップ |
1000 |
データローダーワーカー数 |
4 |
生成による予測 |
True |
最後に最良モデルをロード |
True |
最良モデルの指標 |
eval_loss |
値が大きい方が良い |
False (検証損失が低い方が良い) |
報告先 |
Weights & Biases (WandB) |
その他の考慮事項
- このモデルは、BBCの記事で構成されるXSumデータセットを用いてファインチューニングされています。他のドメインやテキストタイプでは性能が異なる場合があります。また、XSumデータセットに含まれるバイアスを引き継ぐ可能性があります。
- モデルは、トレーニング中に学習したパターンに基づいて要約を生成します。複雑または曖昧な入力テキストに対しては、不正確または誤解を招く要約を生成することがあります。
- モデルは、高度に技術的またはドメイン固有のコンテンツに対して苦労する可能性があります。これは、そのようなデータで明示的にトレーニングされていないためです。
- モデルは英語の要約のみを生成します。
📄 ライセンス
このモデルはMITライセンスの下で提供されています。