L

Longt5 Tglobal Large 16384 Pubmed 3k Steps

由Stancld開發
LongT5是基於T5擴展的長序列文本到文本Transformer模型,採用transient-global注意力機制,適用於處理長文本任務。
下載量 1,264
發布時間 : 6/10/2022

模型概述

該模型是LongT5的大規模配置版本,專門針對長文本序列設計,在PubMed摘要數據集上進行了微調,適用於文本摘要等任務。

模型特點

長序列處理能力
支持最長16,384個token的輸入序列,適合處理長文檔。
transient-global注意力機制
結合局部和全局注意力,在保持效率的同時捕獲長距離依賴關係。
醫學領域適配
在PubMed醫學摘要數據集上微調,適合醫學文本處理任務。

模型能力

長文本處理
文本摘要生成
醫學文本理解

使用案例

醫學研究
醫學文獻摘要生成
自動生成醫學研究論文的簡潔摘要
Rouge-1得分47.44,接近原論文性能
學術輔助
長文檔內容提煉
從長篇學術論文中提取關鍵信息
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase