🚀 IT5大小寫敏感小型高效EL32新聞摘要模型 ✂️🗞️ 🇮🇹
本模型用於意大利語新聞摘要生成,基於IT5架構,在特定語料上微調,能有效提升新聞摘要的生成效果,為意大利語新聞處理提供高效解決方案。
✨ 主要特性
- 高效架構:採用優化的模型架構,在減少參數數量的同時提高性能。
- 大小寫敏感:採用不同的詞彙表,支持大小寫文本生成。
- 微調優化:在Fanpage和Il Post語料上進行新聞摘要任務的微調。
📦 安裝指南
文檔未提及具體安裝步驟,故跳過此章節。
💻 使用示例
基礎用法
from transformers import pipelines
newsum = pipeline("summarization", model='it5/it5-efficient-small-el32-news-summarization')
newsum("Dal 31 maggio è infine partita la piattaforma ITsART, a più di un anno da quando – durante il primo lockdown – il ministro della Cultura Dario Franceschini ne aveva parlato come di «una sorta di Netflix della cultura», pensata per «offrire a tutto il mondo la cultura italiana a pagamento». È presto per dare giudizi definitivi sulla piattaforma, e di certo sarà difficile farlo anche più avanti senza numeri precisi. Al momento, l’unica cosa che si può fare è guardare com’è fatto il sito, contare quanti contenuti ci sono (circa 700 “titoli”, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro varietà. Intanto, una cosa notata da più parti è che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente.")
>>> [{"generated_text": "ITsART, la Netflix della cultura italiana, parte da maggio. Film, documentari, spettacoli teatrali e musicali disponibili sul nuovo sito a pagamento."}]
高級用法
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-efficient-small-el32-news-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-efficient-small-el32-news-summarization")
📚 詳細文檔
本倉庫包含IT5大小寫敏感小型高效EL32模型的檢查點,該模型在新聞摘要任務上進行了微調。相關實驗是論文IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation的一部分,論文作者為Gabriele Sarti和Malvina Nissim。
其他發佈材料的綜合概述可在gsarti/it5倉庫中找到。有關報告分數和評估方法的更多詳細信息,請參考論文。
🔧 技術細節
高效IT5模型與標準模型的不同之處在於採用了不同的詞彙表,支持大小寫文本生成,並採用了優化的模型架構,以在減少參數數量的同時提高性能。小型EL32模型用32層深度編碼器替換了T5小型架構中的原始編碼器,相較於基礎模型表現出更好的性能。
📄 許可證
本項目採用Apache-2.0許可證。
如果您在研究中使用此模型,請按以下格式引用我們的工作:
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}