L

Long T5 Tglobal Base 16384 Booksum V12

由pszemraj開發
基於T5架構優化的長文本摘要生成模型,支持處理長達16384個token的輸入,在書籍摘要任務上表現優異。
下載量 109
發布時間 : 9/9/2022

模型概述

該模型專門針對長文檔摘要任務優化,採用T5架構並擴展了處理長文本的能力,適用於書籍、科學論文等長篇內容的概括生成。

模型特點

超長上下文處理
支持處理長達16384個token的輸入文本,適合書籍章節等超長內容
專業領域優化
在BookSum數據集上專門訓練,對學術文獻和書籍內容摘要效果顯著
多尺度摘要
可生成不同長度的摘要(8-64個token),滿足多樣化需求

模型能力

長文本摘要生成
內容概括
書籍章節摘要
科學論文摘要
技術文檔概括

使用案例

學術研究
論文快速閱讀
為長篇學術論文生成簡明摘要,幫助研究者快速把握核心內容
在科學論文摘要任務上ROUGE-1得分30.00
出版行業
書籍內容摘要
自動生成書籍章節摘要,用於目錄、導讀等出版場景
在BookSum數據集上ROUGE-1得分36.14
政府報告
政策文件摘要
對長篇政府報告進行關鍵信息提取
在gov_report數據集上ROUGE-1得分37.05
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase