🚀 IT5大模型用于新闻摘要提取 ✂️🗞️ 🇮🇹
本仓库包含 IT5 Large 模型的检查点,该模型在 Fanpage 和 Il Post 语料库上针对新闻摘要提取任务进行了微调。这些实验是论文 IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation 的一部分,论文作者为 Gabriele Sarti 和 Malvina Nissim。
gsarti/it5 仓库中提供了其他已发布材料的全面概述。有关报告分数和评估方法的更多详细信息,请参考论文。
🚀 快速开始
模型使用
模型检查点可用于 Tensorflow、Pytorch 和 JAX。可以直接通过管道使用,示例如下:
from transformers import pipelines
newsum = pipeline("summarization", model='it5/it5-large-news-summarization')
newsum("Dal 31 maggio è infine partita la piattaforma ITsART, a più di un anno da quando – durante il primo lockdown – il ministro della Cultura Dario Franceschini ne aveva parlato come di «una sorta di Netflix della cultura», pensata per «offrire a tutto il mondo la cultura italiana a pagamento». È presto per dare giudizi definitivi sulla piattaforma, e di certo sarà difficile farlo anche più avanti senza numeri precisi. Al momento, l’unica cosa che si può fare è guardare com’è fatto il sito, contare quanti contenuti ci sono (circa 700 “titoli”, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro varietà. Intanto, una cosa notata da più parti è che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente.")
>>> [{"generated_text": "ITsART, la Netflix della cultura italiana, parte da maggio. Film, documentari, spettacoli teatrali e musicali disponibili sul nuovo sito a pagamento."}]
也可以使用自动类加载:
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-large-news-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-large-news-summarization")
引用说明
如果您在研究中使用了此模型,请按以下格式引用我们的工作:
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
📄 许可证
本项目采用 Apache-2.0 许可证。
📋 模型信息
属性 |
详情 |
支持语言 |
意大利语 |
模型类型 |
序列到序列 |
适用场景 |
新闻摘要提取、Fanpage、Il Post 相关内容处理 |
训练数据集 |
ARTeLab/fanpage、ARTeLab/ilpost |
评估指标 |
ROUGE、BERTScore |
🌱 模型表现
数据集 |
ROUGE1 |
ROUGE2 |
ROUGEL |
BERTScore |
NewsSum-IT (IlPost) |
0.249 |
0.102 |
0.199 |
0.313 |
NewsSum-IT (Fanpage) |
0.253 |
0.099 |
0.191 |
0.316 |
🌍 碳排放信息
- 排放量:51g
- 来源:Google Cloud Platform Carbon Footprint
- 训练类型:微调
- 地理位置:荷兰埃姆斯哈文,欧洲
- 使用硬件:1 TPU v3 - 8 VM
🖼️ 缩略图
