L

Longformer Zh

ValkyriaLennethによって開発
PyTorchベースの中国語Longformerモデルで、線形複雑度で最大4096文字の文書シーケンスを処理でき、中国語長文タスクに適しています。
ダウンロード数 418
リリース時間 : 3/2/2022

モデル概要

このモデルは局所ウィンドウアテンションとタスク指向のグローバルアテンションを融合しており、標準的な自己アテンションモジュールを完全に代替でき、特に中国語長文タスクの処理に適しています。

モデル特徴

線形複雑度で長文を処理
TransformerのO(n^2)複雑度と比較して、線形複雑度で最大4096文字の文書シーケンスを処理できます。
混合アテンションメカニズム
局所ウィンドウアテンションとタスク指向のグローバルアテンションを融合しており、標準的な自己アテンションモジュールを完全に代替できます。
全単語マスクメカニズム
全単語マスク(WWM)メカニズムを導入して中国語の特性に適合させ、調べたところ、最初のオープンソースのPyTorch版中国語WWM実装です。

モデル能力

長文処理
テキスト分類
読解
指示解消
感情分析

使用事例

感情分析
CCF感情分析
中国語テキストの感情分類タスクに使用
開発セットのF1が80.51に達し、Roberta - midと同等
読解
中国語読解(CMRC)
中国語読解タスクに使用
F1:86.15, EM:66.84,Bertベースラインより優れています
指示解消
指示解消タスク
中国語指示解消タスクに使用
Conll - F1:67.81,BertとRobertaより優れています
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase