L

Long T5 Local Large

由 google 开发
长T5是基于T5扩展的文本到文本Transformer模型,支持高效处理长序列输入,特别适用于文本生成任务。
下载量 177
发布时间 : 4/14/2022

模型简介

长T5模型是在英文语料上进行预训练的文本到文本Transformer模型,通过局部注意力或瞬态全局注意力机制高效处理长序列输入,适用于摘要生成、问答等任务。

模型特点

高效处理长序列
借助局部注意力或瞬态全局注意力机制,能够高效处理长输入序列(最多可达16,384个词元)。
文本生成能力强
在文本生成任务(如摘要生成、问答)上表现出色。

模型能力

文本生成
长序列处理
摘要生成
问答

使用案例

文本生成
摘要生成
对长文档进行内容摘要
能够高效处理长输入序列并生成准确摘要
问答系统
基于长文档内容回答问题
能够理解长文档上下文并提供准确答案
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase