L

Long T5 Local Large

googleによって開発
長T5はT5を拡張したテキスト対テキストTransformerモデルで、長シーケンス入力を効率的に処理でき、特にテキスト生成タスクに適しています。
ダウンロード数 177
リリース時間 : 4/14/2022

モデル概要

長T5モデルは英語コーパスで事前学習されたテキスト対テキストTransformerモデルで、局所的アテンションまたは一時的なグローバルアテンションメカニズムにより長シーケンス入力を効率的に処理し、要約生成や質問応答などのタスクに適しています。

モデル特徴

長シーケンスを効率的に処理
局所的アテンションまたは一時的なグローバルアテンションメカニズムを利用して、長い入力シーケンス(最大16,384トークン)を効率的に処理できます。
テキスト生成能力が強い
テキスト生成タスク(要約生成、質問応答など)で優れた性能を発揮します。

モデル能力

テキスト生成
長シーケンス処理
要約生成
質問応答

使用事例

テキスト生成
要約生成
長いドキュメントの内容を要約する
長い入力シーケンスを効率的に処理し、正確な要約を生成できます
質問応答システム
長いドキュメントの内容に基づいて質問に答える
長いドキュメントの文脈を理解し、正確な答えを提供できます
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase