L

Long T5 Tglobal Base 16384 Booksum V12

Developed by pszemraj
基于T5架构优化的长文本摘要生成模型,支持处理长达16384个token的输入,在书籍摘要任务上表现优异。
Downloads 109
Release Time : 9/9/2022

Model Overview

该模型专门针对长文档摘要任务优化,采用T5架构并扩展了处理长文本的能力,适用于书籍、科学论文等长篇内容的概括生成。

Model Features

超长上下文处理
支持处理长达16384个token的输入文本,适合书籍章节等超长内容
专业领域优化
在BookSum数据集上专门训练,对学术文献和书籍内容摘要效果显著
多尺度摘要
可生成不同长度的摘要(8-64个token),满足多样化需求

Model Capabilities

长文本摘要生成
内容概括
书籍章节摘要
科学论文摘要
技术文档概括

Use Cases

学术研究
论文快速阅读
为长篇学术论文生成简明摘要,帮助研究者快速把握核心内容
在科学论文摘要任务上ROUGE-1得分30.00
出版行业
书籍内容摘要
自动生成书籍章节摘要,用于目录、导读等出版场景
在BookSum数据集上ROUGE-1得分36.14
政府报告
政策文件摘要
对长篇政府报告进行关键信息提取
在gov_report数据集上ROUGE-1得分37.05
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase