L

Long T5 Tglobal Base

googleによって開発
LongT5はT5アーキテクチャに基づくテキスト間変換モデルで、一時的グローバル注意機構を採用し長いシーケンス入力を効率的に処理します
ダウンロード数 71.38k
リリース時間 : 4/16/2022

モデル概要

LongT5はエンコーダ-デコーダアーキテクチャのTransformerモデルで、局所的注意または一時的-グローバル注意機構により長いシーケンス(最大16,384トークン)を効率的に処理し、特に長文処理が必要な生成タスクに適しています

モデル特徴

長シーケンス処理能力
最大16,384トークンの長いシーケンス入力をサポートし、スパース注意機構により効率的に処理します
一時的グローバル注意
革新的な一時的-グローバル注意機構を採用し、性能を維持しながら計算複雑性を低減します
生成的事前学習
Pegasusのような生成的ノイズ除去事前学習方法を使用し、テキスト生成能力を最適化します

モデル能力

長文要約生成
長文書質問応答システム
テキスト間変換

使用事例

テキスト要約
長文書自動要約
研究論文、法律文書などの長文書から簡潔な要約を生成します
長文要約タスクで優れた性能を発揮します
質問応答システム
長文書質問応答
長文書から情報を抽出し複雑な質問に回答します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase