L

Longformer Zh

由ValkyriaLenneth開發
基於PyTorch的中文Longformer模型,能以線性複雜度處理最長4096字符的文檔序列,適用於中文長文本任務。
下載量 418
發布時間 : 3/2/2022

模型概述

該模型融合了局部窗口注意力與任務導向的全局注意力,可完美替代標準自注意力模塊,特別適合處理中文長文本任務。

模型特點

線性複雜度處理長文本
相較於Transformer的O(n^2)複雜度,能以線性複雜度處理最長4096字符的文檔序列。
混合注意力機制
融合了局部窗口注意力與任務導向的全局注意力,可完美替代標準自注意力模塊。
全詞掩碼機制
引入全詞掩碼(WWM)機制適配中文特性,據查為首個開源的PyTorch版中文WWM實現。

模型能力

長文本處理
文本分類
閱讀理解
指代消解
情感分析

使用案例

情感分析
CCF情感分析
用於中文文本情感分類任務
開發集F1達到80.51,與Roberta-mid相當
閱讀理解
中文閱讀理解(CMRC)
用於中文閱讀理解任務
F1:86.15, EM:66.84,優於Bert基準
指代消解
指代消解任務
用於中文指代消解任務
Conll-F1:67.81,優於Bert和Roberta
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase