Pegasus Newsroom
PEGASUSは間隔文を抽出する抽象要約事前学習モデルで、Google Researchチームによって開発され、高品質なテキスト要約の生成に特化しています。
ダウンロード数 52
リリース時間 : 3/2/2022
モデル概要
PEGASUSは抽象要約生成タスク専用の事前学習モデルで、間隔文を抽出して事前学習を行うことで、複数の要約データセットで優れた性能を発揮します。
モデル特徴
混合とランダム訓練
C4とHugeNewsデータセットで同時に訓練を行い、ランダムサンプリングと混合戦略を採用してモデル性能を向上させます。
動的間隔文比率
訓練時に15%から45%の間で均一にサンプリングされた間隔文比率を使用し、モデルの汎化能力を強化します。
重要文サンプリング
重要文サンプリング時に20%の均一ノイズを追加し、モデルの頑健性を向上させます。
改行コード対応
段落分割情報を保持するため、SentencePieceトークナイザーを更新して改行コードのエンコードをサポートしました。
モデル能力
テキスト要約生成
複数データセット適応
抽象要約
事前学習モデルのファインチューニング
使用事例
ニュース要約
CNN/DailyMail要約
CNN/DailyMailニュース記事の簡潔な要約を生成します。
ROUGE-1/2/L: 44.16/21.56/41.30
XSum要約
極端な要約(1文要約)タスクで高品質な結果を生成します。
ROUGE-1/2/L: 47.60/24.83/39.64
学術論文要約
arXiv論文要約
学術論文の簡潔な要約を生成します。
ROUGE-1/2/L: 44.21/16.95/25.67
PubMed要約
生物医学文献の要約を生成します。
ROUGE-1/2/L: 45.97/20.15/28.25
技術文書要約
BigPatent要約
特許文書の要約を生成します。
ROUGE-1/2/L: 52.29/33.08/41.66
WikiHow要約
WikiHowチュートリアル記事の要約を生成します。
ROUGE-1/2/L: 46.39/22.12/38.41
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98