🚀 IT5大小写敏感小型高效EL32新闻摘要模型 ✂️🗞️ 🇮🇹
本模型用于意大利语新闻摘要生成,基于IT5架构,在特定语料上微调,能有效提升新闻摘要的生成效果,为意大利语新闻处理提供高效解决方案。
✨ 主要特性
- 高效架构:采用优化的模型架构,在减少参数数量的同时提高性能。
- 大小写敏感:采用不同的词汇表,支持大小写文本生成。
- 微调优化:在Fanpage和Il Post语料上进行新闻摘要任务的微调。
📦 安装指南
文档未提及具体安装步骤,故跳过此章节。
💻 使用示例
基础用法
from transformers import pipelines
newsum = pipeline("summarization", model='it5/it5-efficient-small-el32-news-summarization')
newsum("Dal 31 maggio è infine partita la piattaforma ITsART, a più di un anno da quando – durante il primo lockdown – il ministro della Cultura Dario Franceschini ne aveva parlato come di «una sorta di Netflix della cultura», pensata per «offrire a tutto il mondo la cultura italiana a pagamento». È presto per dare giudizi definitivi sulla piattaforma, e di certo sarà difficile farlo anche più avanti senza numeri precisi. Al momento, l’unica cosa che si può fare è guardare com’è fatto il sito, contare quanti contenuti ci sono (circa 700 “titoli”, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro varietà. Intanto, una cosa notata da più parti è che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente.")
>>> [{"generated_text": "ITsART, la Netflix della cultura italiana, parte da maggio. Film, documentari, spettacoli teatrali e musicali disponibili sul nuovo sito a pagamento."}]
高级用法
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-efficient-small-el32-news-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-efficient-small-el32-news-summarization")
📚 详细文档
本仓库包含IT5大小写敏感小型高效EL32模型的检查点,该模型在新闻摘要任务上进行了微调。相关实验是论文IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation的一部分,论文作者为Gabriele Sarti和Malvina Nissim。
其他发布材料的综合概述可在gsarti/it5仓库中找到。有关报告分数和评估方法的更多详细信息,请参考论文。
🔧 技术细节
高效IT5模型与标准模型的不同之处在于采用了不同的词汇表,支持大小写文本生成,并采用了优化的模型架构,以在减少参数数量的同时提高性能。小型EL32模型用32层深度编码器替换了T5小型架构中的原始编码器,相较于基础模型表现出更好的性能。
📄 许可证
本项目采用Apache-2.0许可证。
如果您在研究中使用此模型,请按以下格式引用我们的工作:
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}