🚀 IT5 Small for News Summarization ✂️🗞️ 🇮🇹
このリポジトリには、IT5 Small モデルを、Fanpage と Il Post のコーパスを用いてニュース要約タスクでファインチューニングしたチェックポイントが含まれています。この実験は、Gabriele Sarti と Malvina Nissim による論文 IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation の一部として行われました。
他の公開資料の包括的な概要は、gsarti/it5 リポジトリに記載されています。報告されたスコアと評価アプローチに関する詳細は、論文を参照してください。
🚀 クイックスタート
✨ 主な機能
- このモデルは、イタリア語のニュース記事を要約するためにファインチューニングされています。
- Tensorflow、Pytorch、JAXで使用できるモデルチェックポイントが提供されています。
📦 インストール
このモデルを使用するには、transformers
ライブラリが必要です。以下のコマンドでインストールできます。
pip install transformers
💻 使用例
基本的な使用法
from transformers import pipelines
newsum = pipeline("summarization", model='it5/it5-small-news-summarization')
newsum("Dal 31 maggio è infine partita la piattaforma ITsART, a più di un anno da quando – durante il primo lockdown – il ministro della Cultura Dario Franceschini ne aveva parlato come di «una sorta di Netflix della cultura», pensata per «offrire a tutto il mondo la cultura italiana a pagamento». È presto per dare giudizi definitivi sulla piattaforma, e di certo sarà difficile farlo anche più avanti senza numeri precisi. Al momento, l’unica cosa che si può fare è guardare com’è fatto il sito, contare quanti contenuti ci sono (circa 700 “titoli”, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro varietà. Intanto, una cosa notata da più parti è che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente.")
>>> [{"generated_text": "ITsART, la Netflix della cultura italiana, parte da maggio. Film, documentari, spettacoli teatrali e musicali disponibili sul nuovo sito a pagamento."}]
高度な使用法
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-small-news-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-small-news-summarization")
📚 ドキュメント
このモデルを研究で使用する場合は、以下のように我々の研究を引用してください。
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で提供されています。