🚀 IT5大模型用於新聞摘要提取 ✂️🗞️ 🇮🇹
本倉庫包含 IT5 Large 模型的檢查點,該模型在 Fanpage 和 Il Post 語料庫上針對新聞摘要提取任務進行了微調。這些實驗是論文 IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation 的一部分,論文作者為 Gabriele Sarti 和 Malvina Nissim。
gsarti/it5 倉庫中提供了其他已發佈材料的全面概述。有關報告分數和評估方法的更多詳細信息,請參考論文。
🚀 快速開始
模型使用
模型檢查點可用於 Tensorflow、Pytorch 和 JAX。可以直接通過管道使用,示例如下:
from transformers import pipelines
newsum = pipeline("summarization", model='it5/it5-large-news-summarization')
newsum("Dal 31 maggio è infine partita la piattaforma ITsART, a più di un anno da quando – durante il primo lockdown – il ministro della Cultura Dario Franceschini ne aveva parlato come di «una sorta di Netflix della cultura», pensata per «offrire a tutto il mondo la cultura italiana a pagamento». È presto per dare giudizi definitivi sulla piattaforma, e di certo sarà difficile farlo anche più avanti senza numeri precisi. Al momento, l’unica cosa che si può fare è guardare com’è fatto il sito, contare quanti contenuti ci sono (circa 700 “titoli”, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro varietà. Intanto, una cosa notata da più parti è che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente.")
>>> [{"generated_text": "ITsART, la Netflix della cultura italiana, parte da maggio. Film, documentari, spettacoli teatrali e musicali disponibili sul nuovo sito a pagamento."}]
也可以使用自動類加載:
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-large-news-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-large-news-summarization")
引用說明
如果您在研究中使用了此模型,請按以下格式引用我們的工作:
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
📄 許可證
本項目採用 Apache-2.0 許可證。
📋 模型信息
屬性 |
詳情 |
支持語言 |
意大利語 |
模型類型 |
序列到序列 |
適用場景 |
新聞摘要提取、Fanpage、Il Post 相關內容處理 |
訓練數據集 |
ARTeLab/fanpage、ARTeLab/ilpost |
評估指標 |
ROUGE、BERTScore |
🌱 模型表現
數據集 |
ROUGE1 |
ROUGE2 |
ROUGEL |
BERTScore |
NewsSum-IT (IlPost) |
0.249 |
0.102 |
0.199 |
0.313 |
NewsSum-IT (Fanpage) |
0.253 |
0.099 |
0.191 |
0.316 |
🌍 碳排放信息
- 排放量:51g
- 來源:Google Cloud Platform Carbon Footprint
- 訓練類型:微調
- 地理位置:荷蘭埃姆斯哈文,歐洲
- 使用硬件:1 TPU v3 - 8 VM
🖼️ 縮略圖
