L

Long T5 Tglobal Xl

由google開發
LongT5 是一個基於 Transformer 的文本到文本模型,專門設計用於處理長序列輸入,最高支持 16384 個標記。
下載量 336
發布時間 : 6/14/2022

模型概述

LongT5 是 T5 模型的擴展版本,採用編碼器-解碼器架構,通過瞬態全局注意力機制高效處理長序列文本,特別適用於需要處理長輸入的任務如摘要生成和問答。

模型特點

瞬態全局注意力
通過稀疏注意力模式高效處理長序列,最高支持 16384 個標記的輸入。
文本到文本框架
採用統一的文本到文本轉換框架,支持多種生成任務。
基於 Pegasus 的預訓練
使用類似 Pegasus 的去噪生成式預訓練方法。

模型能力

長文本摘要生成
長文本問答
文本去噪生成

使用案例

文本摘要
長文檔摘要
從長文檔(如研究報告或新聞文章)中生成簡潔摘要。
問答系統
長上下文問答
基於長文檔內容回答複雜問題。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase