🚀 IT5 Small用于维基百科摘要生成 ✂️📑 🇮🇹
本仓库包含 IT5 Small 模型在 WITS 数据集上针对维基百科摘要任务进行微调后的检查点。该模型是 Gabriele Sarti 和 Malvina Nissim 所著论文 IT5: 大规模意大利语理解与生成的文本到文本预训练 实验的一部分。
gsarti/it5 仓库提供了其他发布材料的全面概述。有关报告分数和评估方法的更多详细信息,请参考论文。
🚀 快速开始
✨ 主要特性
- 多框架支持:模型检查点可在 Tensorflow、Pytorch 和 JAX 中使用。
- 多种使用方式:既可以通过管道直接使用,也能使用自动类加载。
- 良好的评估指标:在 ROUGE 和 BERTScore 等指标上有较好表现。
📦 安装指南
文档未提及安装步骤,此处跳过。
💻 使用示例
基础用法
from transformers import pipelines
wikisum = pipeline("summarization", model='it5/it5-small-wiki-summarization')
wikisum("Le dimensioni dell'isola sono di 8 km di lunghezza e di 3,2 km di larghezza. Si trova a 1,6 km a sud-est dell'isola di Renaud, dalla quale è separata dal passaggio Rodman. La sua altezza è di 100 m. Fu scoperta dall'esploratore e baleniere britannico John Biscoe nel 1832 e venne mappata durante una spedizione antartica francese realizzata nel primo decennio del XX secolo. Al comando della spedizione era Jean-Baptiste Charcot e il nome fu scelto per onorare l'esploratore e geografo francese Charles Rabot. === Rivendicazioni territoriali === * Secondo l'Argentina appartiene al dipartimento dell'Antartide Argentina nella provincia della Terra del Fuoco. * Secondo il Cile appartiene al comune antartico della provincia cilena antartica nella regione di Magallanes e dell'Antartico cileno. * Secondo il Regno Unito fa parte del territorio antartico britannico. Per il Trattato Antartico tali rivendicazioni sono sospese. Sull'isola è presente il rifugio Guillochon, sito storico antartico. ")
>>> [{"generated_text": "L' '''isola di Rabot''' si trova in prossimità dell'isola di Renaud, a sud dell'Argentina."}]
高级用法
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-small-wiki-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-small-wiki-summarization")
📚 详细文档
模型信息
属性 |
详情 |
模型类型 |
it5-small-wiki-summarization |
训练数据 |
WITS |
评估指标 |
ROUGE、BERTScore |
模型结果
模型名为 it5-small-wiki-summarization,在维基百科摘要任务上的评估结果如下:
任务 |
数据集 |
指标 |
值 |
维基百科摘要 |
WITS |
Test Rouge1 |
0.337 |
维基百科摘要 |
WITS |
Test Rouge2 |
0.191 |
维基百科摘要 |
WITS |
Test RougeL |
0.306 |
维基百科摘要 |
WITS |
Test BERTScore |
0.504 |
🔧 技术细节
文档未提及技术实现细节,此处跳过。
📄 许可证
本项目采用 Apache-2.0 许可证。
引用说明
如果您在研究中使用了此模型,请按以下格式引用我们的工作:
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
碳排放信息
- 排放量:8g
- 来源:Google Cloud Platform Carbon Footprint
- 训练类型:微调
- 地理位置:荷兰埃姆斯哈文,欧洲
- 使用硬件:1 TPU v3 - 8 VM
模型缩略图
点击查看