N

Nystromformer 512

由uw-madison開發
基於Nyström方法優化的高效Transformer模型,用於處理長序列任務
下載量 1,570
發布時間 : 3/2/2022

模型概述

Nyströmformer是一種改進的自注意力機制Transformer模型,通過Nyström方法近似標準自注意力,顯著降低了計算複雜度,使其能夠高效處理長序列任務。

模型特點

高效自注意力機制
採用Nyström方法近似標準自注意力,將複雜度從O(n²)降至O(n)
長序列處理能力
特別適合處理包含數千詞元的長序列任務
性能優越
在GLUE基準測試和長序列競技場(LRA)基準測試中表現優異

模型能力

文本填充
語言建模
長文本處理

使用案例

自然語言處理
文本補全
預測並填充文本中的缺失部分
如示例所示,能準確預測'巴黎是法國的首都'
長文檔分析
處理和分析長篇幅文檔內容
由於優化的注意力機制,能有效處理長序列輸入
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase