L

Long T5 Tglobal Base 16384 Booksum V11 Big Patent V2

由pszemraj開發
基於T5架構的長文本摘要生成模型,支持處理長達16384個token的輸入,適用於書籍和技術文檔摘要任務。
下載量 21
發布時間 : 7/31/2022

模型概述

該模型是基於T5架構優化的長文本摘要生成模型,專門針對書籍和技術文檔的摘要任務進行了訓練。它能夠處理長達16384個token的輸入序列,適用於生成書籍章節、技術專利等長文檔的簡潔摘要。

模型特點

超長上下文處理
支持處理長達16384個token的輸入序列,適合書籍等長文檔摘要
多領域適應
同時在書籍摘要(kmfoda/booksum)和技術專利(big_patent)數據集上訓練
高效注意力機制
採用TGlobal注意力變體,優化長序列處理效率

模型能力

長文本摘要生成
書籍章節摘要
技術文檔摘要
內容濃縮

使用案例

出版與教育
書籍章節摘要
為書籍章節生成簡潔的內容摘要
在booksum數據集上ROUGE-1得分23.14
技術文檔處理
專利文檔摘要
為技術專利文檔生成關鍵內容摘要
在big_patent數據集上訓練優化
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase