N

Nystromformer 512

Developed by uw-madison
Nyström法に基づいて最適化された効率的なTransformerモデルで、長文シーケンスタスクの処理に使用
Downloads 1,570
Release Time : 3/2/2022

Model Overview

Nyströmformerは、Nyström法を用いて標準的な自己注意機構を近似することで計算複雑度を大幅に削減し、長文シーケンスタスクを効率的に処理できるように改良されたTransformerモデルです。

Model Features

効率的な自己注意機構
Nyström法を用いて標準的な自己注意機構を近似し、複雑度をO(n²)からO(n)に削減
長文シーケンス処理能力
数千のトークンを含む長文シーケンスタスクに特に適している
優れた性能
GLUEベンチマークテストと長文シーケンスアリーナ(LRA)ベンチマークテストで優れた結果を発揮

Model Capabilities

テキスト補完
言語モデリング
長文テキスト処理

Use Cases

自然言語処理
テキスト補完
テキストの欠落部分を予測して補完
例に示すように、'パリはフランスの首都である'を正確に予測可能
長文ドキュメント分析
長文ドキュメントの内容を処理・分析
最適化された注意機構により、長文シーケンス入力を効果的に処理可能
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase