L

Long T5 Local Large

由google開發
長T5是基於T5擴展的文本到文本Transformer模型,支持高效處理長序列輸入,特別適用於文本生成任務。
下載量 177
發布時間 : 4/14/2022

模型概述

長T5模型是在英文語料上進行預訓練的文本到文本Transformer模型,通過局部注意力或瞬態全局注意力機制高效處理長序列輸入,適用於摘要生成、問答等任務。

模型特點

高效處理長序列
藉助局部注意力或瞬態全局注意力機制,能夠高效處理長輸入序列(最多可達16,384個詞元)。
文本生成能力強
在文本生成任務(如摘要生成、問答)上表現出色。

模型能力

文本生成
長序列處理
摘要生成
問答

使用案例

文本生成
摘要生成
對長文檔進行內容摘要
能夠高效處理長輸入序列並生成準確摘要
問答系統
基於長文檔內容回答問題
能夠理解長文檔上下文並提供準確答案
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase